To see the other types of publications on this topic, follow the link: Caractère numérique.

Dissertations / Theses on the topic 'Caractère numérique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 35 dissertations / theses for your research on the topic 'Caractère numérique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Sajid, Bakht-Baidar. "Multifissuration unidirectionnelle des revêtements à caractère fragile : simulation numérique et étude d'échantillons industriels." Vandoeuvre-les-Nancy, INPL, 2000. http://www.theses.fr/2000INPL046N.

Full text
Abstract:
Une simulation numérique est réalisée pour décrire le phénomène de multifissuration qui se produit dans les revêtements fragiles minces, sous une sollicitation extérieure uniaxiale. On admet que les défauts sont repartis dans le revêtement à des positions aléatoires, et leur distribution en taille est choisie de telle façon que la densité de probabilité de rupture suive la forme de Weibull. On admet que l'amorçage de fissure sur un défaut survient selon le critère de Griffith. La distribution de contrainte dans le dépôt fissure est déterminée par un modèle analytique décrit brièvement dans cette étude. Le modèle de Widom est adapté pour décrire le phénomène de multifissuration. La simulation est validée en l'adaptant pour le modèle sans relaxation de contrainte (Src) et de Widom, et en comparant alors les résultats donnes par la simulation aux solutions analytiques de ces modèles. La distribution des distances interfissures, obtenue par la simulation, est interprétée par le modèle de Widom et des grands-paves, pour déterminer la densité de probabilité de rupture (Dpr) et la taille de la zone d'exclusion (Tze). Cette démarche nous a permis de préciser les limitations des modèles analytiques. On trouve que ces modèles représentent correctement le phénomène de multifissuration à des faibles densités de fissures, alors qu’à des grandes densités, ils sous-estiment largement la Dpr ; l'écart augmente avec la densité de fissures. On note que la limite de l'applicabilité du modèle des grands-paves est un peu plus grande que celle de Widom. On trouve que la limite du domaine de l'applicabilité augmente avec un paramètre donne, si l'importance de la relaxation de contrainte dans le phénomène de multifissuration diminue avec ce paramètre. On trouve également que, contrairement à ce que tentent de montrer plusieurs auteurs, la Tze décroit de manière monotone avec la sollicitation appliquée. Cela montre qu'un modèle de multifissuration avec une Tze décroissante sera certainement une meilleure représentation du phénomène que ceux qui considèrent la Tze soit comme une constante soit comme une fonction croissante de la sollicitation. En comparant la Tze, obtenue par une approche analytique, à la distance interfissures moyenne, on trouve qu'au-delà d'une certaine densité de fissures, la formation des fissures se produit principalement au centre des segments, donc comme dans le cas d'un revêtement parfaitement homogène. Pour étudier l'influence de différents paramètres, les essais de multifissuration sont effectues sur plusieurs revêtements tels Tibn, Tin, Crn, Cr et nitrure, déposés sur un substrat d'acier inoxydable. Les résultats expérimentaux sont interprétés en termes de fragilité et d'homogénéité du revêtement. On étudie en particulier le rôle des différents paramètres tel que la nature et l'épaisseur du revêtement, l'état de surface du substrat (rugosité, rayures, polissage,) les macro-défauts, la largeur d'échantillon, les paramètres de réalisation du dépôt, etc la possibilité d'appliquer la simulation pour interpréter les résultats expérimentaux est aussi décrite.
APA, Harvard, Vancouver, ISO, and other styles
2

Coppo, Marc-Antoine. "Familles maximales de systèmes de points surabondants dans le plan projectif." Nice, 1989. http://www.theses.fr/1989NICE4318.

Full text
Abstract:
Dans le schéma de Hilbert des sous-schémas zéro dimensionnels de degré N du plan projectif, on étudie le sous-schéma ferme paramétrant les systèmes de points qui n'imposent pas des conditions indépendantes aux courbes de degré D. Le principal résultat obtenu est l'identification des composantes irréductibles de ce sous-schéma
APA, Harvard, Vancouver, ISO, and other styles
3

Alliot, Sandie. "Essai de qualification de la notion de données à caractère personnel." Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCB001.

Full text
Abstract:
Les données à caractère personnel ont subi de grands changements qui justifient une nouvelle étude de cette notion. Ces données particulières sont aujourd’hui au cœur de l’économie numérique et font, pour cette raison, l’objet de nombreuses revendications. Volonté d’appropriation de la part des exploitants, demande de protection de la part des personnes concernées par les données, font partie des enjeux qu’il s’agit de concilier. Une définition et une qualification adéquates des données personnelles apparaissent alors indispensables afin de trouver un équilibre entre les différents intérêts en présence. La thèse démontrera la nécessité d’adopter une nouvelle vision des données personnelles, pour refléter au mieux leurs caractéristiques actuelles et ce afin de les encadrer de manière efficace
Personal data has undergone a major change which justifies a new study of this notion. This particular data is at the heart of the digital economy and thus stirs numerous claims. What is at stake here is to try to work out a balance between different claims such as managing operators' will of appropriation and protecting people concerned by the data, for example. This is why it is essential to find a precise definition and adequate qualifications of personal data to find a balance between the various interests. The thesis will focus on the necessity to adopt a new vision of personal data, to show its current characteristics so as to manage it efficiently
APA, Harvard, Vancouver, ISO, and other styles
4

Rossi, Julien. "Protection des données personnelles et droit à la vie privée : enquête sur la notion controversée de « donnée à caractère personnel »." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2549.

Full text
Abstract:
La menace qu’Internet et les technologies numériques de l’information et de la communication en général font ou feraient peser sur la vie privée soulève de nombreux débats, tant dans la presse qu’au niveau politique. L’affaire Snowden en 2013, puis l’adoption en 2016 du Règlement général de protection des données (RGPD), ont renforcé la visibilité de ces controverses dans l’espace public. Cette thèse part d’une triple interrogation : pouvons-nous définir ce qu’est la « vie privée », existe-t-il un consensus autour de la question, et ce consensus évolue-t-il avec des évolutions de notre milieu technique qui affectent nos modes de communication, et donc d’intrusion dans celle-ci ? En définissant la « vie privée » comme l’objet protégé par des textes normatifs – textes de loi, jurisprudence et standards techno-politiques d’Internet – qui protègent le droit à la vie privée, il est possible d’en étudier empiriquement l’évolution et les controverses qui l’accompagnent. Le droit de la protection des données à caractère personnel a émergé en Europe dans les années1970 pour protéger une « vie privée » perçue comme menacée par une informatique encore à ses débuts. Aujourd’hui, le RGPD, ou encore certains documents édictés par des organismes de standardisation comme l’Internet Engineering Task Force (IETF) ou le World Wide Web Consortium (W3C), visent à protéger cette vie privée au travers d’un corpus de règles, la « protection des données », qui concerne les « données à caractère personnel ». Les définitions juridiques de cette notion produites dans des arènes institutionnelles et celles produites dans des arènes de standardisation technique sont identiques. L’étude de la généalogie de la protection des données révèle en outre le rôle déterminant d’informaticiens dans l’invention de la « protection des données » et en particulier des principes qui régissent aujourd’hui encore les dispositions contenues dans le RGPD. L’analyse des controverses qui ont eu lieu dans les arènes d’élaboration de ces normes montre que la notion de « donnée à caractère personnel » inscrite dans les textes de notre corpus reflète essentiellement le système de convictions d’une coalition d’acteurs inspirés par des idéaux libéraux utilitaristes, attachés à l’autonomie de l’individu et accordant de l’importance au respect de son consentement. Ce paradigme s’est imposé dans les arènes étudiées face à d’autres conceptions de la « vie privée », notamment celles qui la définissent comme un espace collectivement défini ôté au regard de l’espace public, ou encore celles qui préconisent une patrimonialisation de ces données. Ce n’est donc pas l’informatique qui a directement déterminé une évolution dans l’objet de la protection du droit de la vie privée, mais ses perceptions par un groupe d’acteurs. Convaincus de l’utilité sociale de la protection de leur conception libérale de la vie privée, ces derniers sont parvenus à faire émerger, en Europe, dans les années 1970, une nouvelle catégorie juridique : le droit à la protection des données. Le RGPD, adopté en 2016, tout comme les projets de standards du Web visant à protéger la vie privée et étudiés dans cette thèse, reprennent les principes issus de ces premiers débats. Ce faisant, l’arrivée de l’informatique a, indirectement mais effectivement, été un élément déclencheur dans l’évolution de la « vie privée » définie comme objet du droit à la vie privée
Internet and digital information and communication technologies in general are often portrayedas a threat to privacy. This gives rise to many debates, both in the media and among decisionmakers. The Snowden revelations, in 2013, followed by the adoption in 2016 of the General Data Protection Regulation (GDPR), have moved these discussions under the spotlight of the publicsphere.The research presented in this dissertation was born out of three questions: can we define what“privacy” is? Is there any consensus on its definition? And does this consensus change with theevolution of the technical milieu transforming our ways of communicating, and by doing so, theway in which our privacy can be intruded upon? By defining “privacy” as the object which is protected by normative texts – laws, court decisions,techno-political standards of the Internet – protecting the right to privacy, it becomes possible toconduct an empirical study of how it evolved and how it has been a topic of contention. Data protection law emerged in Europe during the 1970’s. Its aim was to protect a “privacy” that was perceived as under threat by the advent of computers. Currently, the GDPR, or somedocuments adopted by standards-settings organisations like the Internet Engineering Task Force(IETF) or the World Wide Web Consortium (W3C), are written with the intention that they protect this privacy through a set of rules and principles referred to as “data protection”, that apply to “personal data”. The legal definitions of this notion produced by political institutions and those crafted instandards-settings bodies are identical. Furthermore, the study of the genealogy of data protection reveals that computer scientists have played a pivotal role in the invention of the principles that “data protection” still relies on, for instance in the GDPR. The analysis of the controversies that took place in the shaping of these rules shows that the notion of “personal data” written down in the normative texts we analysed essentially reflects the beliefs system of a coalition inspired by liberal utilitarian ideals, valuing individual autonomy and granting importance to the respect of one’s consent. This framing of “privacy” has become the paradigm on the field. Other theories, such as those defining “privacy” as a space bound by collectively defined borders protecting it from the public eye, or those advocating the recognition of private property rights on personal data, have been less successful in shaping policy out comes.The advent and spread of networked computers have not directly determined the evolution of theobject that is protected by the right to privacy. It is, rather, the perceptions a group of actors had of computers, that caused such an evolution. Convinced that their liberal conception of privacy issocially valuable, they managed to craft a new legal category during the 1970’s in Europe: the right to the protection of personal data. The GDPR, adopted in 2016, just like Web standards aiming at enhancing the protection of privacy, rely those same principles that were invented during these early debates. Therefore, it can be said that the emergence of computers has indeed, but indirectly, been a triggering factor in the evolution of “privacy” defined as the object protected by the right to privacy
APA, Harvard, Vancouver, ISO, and other styles
5

Tassone, Loredana. "La protection européenne des données à caractère personnel traitées à des fins judiciaires." Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAA028.

Full text
Abstract:
Dans notre société que l’on peut appeler «société de l’information » ou également société de « surveillance électronique », il est désormais essentiel d’assurer la protection de données à caractère personnel. La mise en place d’une réglementation en matière de protection de données n’a pas toujours été aisée et, dans certains domaines, demeure complexe. Le domaine judiciaire est un exemple marquant de secteur d’activité où il a été difficile de mettre en place des règles spécifiques et appropriées pour la protection de données personnelles. Dans les années quatre-vingt-dix, la question s’était posée de savoir si une protection spécifique des données traitées à des fins judiciaires était nécessaire. Les conclusions avaient été diverses : d’un côté, certains avaient estimé qu’une réglementation spécifique était opportune, d’un autre côté, d’autres considéraient que l’idée de mettre en place une telle réglementation devait être abandonnée. Cette étude semble avoir été – à un certain point – abandonnée. Compte tenu de l’évolution des technologies et de l’évolution des textes européens, il semble essentiel de poser à nouveau cette question et de s’interroger sur la place à conférer aux données traitées à des fins judiciaires dans le système européen actuel de protection de données à caractère personnel. Cette nécessité est corroborée par la jurisprudence de la Cour de Strasbourg. Cette dernière a en effet, été saisie de cas de violations des droits fondamentaux liés à un traitement inapproprié des données dans le domaine judiciaire. De plus, des projets de réforme du système de protection de données personnelles sont actuellement en discussion au niveau européen. En effet, le Conseil de l’Europe et l’Union travaillent actuellement sur la modernisation des textes existants en matière de protection des données à caractère personnel. Il est donc intéressant de s’interroger sur la place réservée à la protection des données judiciaires dans le cadre de ces réformes. La thèse veut tout d’abord rappeler l’importance de protéger les données à caractère personnel en tout temps, en tout lieu et dans n’importe quel domaine d’activité, y compris le domaine judiciaire. Elle a pour but principal, d’une part, de mettre en évidence les problèmes existants en matière de protection de données judiciaires et, d’autre part, d’essayer de répondre à la question de savoir si une réglementation spécifique dans ce domaine doit aujourd’hui être élaborée au niveau européen. Dans la première partie les textes du Conseil de l’Europe et de l’Union européenne en matière de protection des données et leur applicabilité au domaine judiciaire sont tout d’abord analysés. Compte tenu du fait que les textes actuellement en vigueur au niveau du Conseil de l’Europe et de l’Union ont, à première vue, un contenu identique, il a été nécessaire d’analyser ces textes avec un esprit comparatif afin de comprendre comment ceux-ci se concilient et de vérifier leur applicabilité aux données judiciaires. [...]
In our society which can be called "information society" and also society of "electronic surveillance," it is essential to ensure the protection of personal data. The implementation of regulations on data protection has not always been easy, and in some areas, remains complex. The judiciary is a striking example of an area where it has been difficult to establish specificand appropriate rules for the protection of personal data. In the years ninety, the question was raised whether a specific protection for judicial data was necessary. The findings were different: on the one hand, some have estimated that a specificregulation was appropriate, on the other hand, others felt that the idea of establishing such rules must be abandoned. This study seems to have been - at some point - quitted. Given the improvements in technology and the evolution of European legislation, it seems essential to renew this question and try to find out which level of protection is given to judicial data in the current European system of protection of personal data. The importance to renew this question is proven by the case law of the Strasbourg Court. The latter has indeed been referred to cases of human rights violations due to improper processing of data in the judiciary. In addition, plans to reform the system of protection of personal data are currently under discussion at European level. Indeed, the Council of Europe and the European Union are currently working on the modernization of existing texts on the protection of personal data. It is therefore interesting to examine the place reserved for the protection of judicial data in the context of these reforms. The thesis recall the importance of protecting personal data at any time, in any place and in any field of activity, including the judiciary. Its main aim, on the one hand, is to highlight existing problems in the protection of judicial data and, on the other hand, to answer the question of whether a specific regulation in this area must nowadays be developed at European level. In the first part Council of Europe and the European Union’s texts on data protection and theirapplicability to the judicial data were analyzed. Given the fact that the texts currently into force at the Council of Europe and at the European Union, at first glance, have the same content, it has been necessary to analyze them with a comparative approach in order to understand their interoperability and verify their applicability to judicial data. Despite the multitude of texts on data protection present at European level (those of the Council of Europe and of the European Union), a marginal space is reserved to judicial data. The basic principles stated in these texts are in theory applicable to judicial data but in concrete those are not applied. In any case, those texts do not provide effective protection of judicial data. [...]
Nella nostra società, che può essere chiamata “società dell'informazione” o anche società di “sorveglianza elettronica”, è ormai indispensabile garantire la protezione dei dati personali. L'attuazione della normativa in materia di protezione dei dati non è sempre stata cosa facile, e per alcuni settori di attività, essa risulta tutt’ora un’operazione complessa. Il settoregiudiziario ne è un esempio. In effetti, si tratta di un settore in cui è stato difficile elaborare ed attuare regole specifiche ed adeguate per la protezione dei dati personali. Negli anni novanta, ci si è chiesti se fosse necessario provvedere all’adozione di regole specifiche per la protezione dei dati trattati a fini giudiziari. Secondo una prima teoria una regolamentazione specifica risultava opportuna, tuttavia secondo un’altra teoria l'idea di creare una regolamentazione per la protezione dei dati personali trattati in ambito giudiziario doveva essere accantonata. Lo studio di tale questione sembra essere stato - ad un certo punto - abbandonato. Dati i miglioramenti tecnologici intervenuti negli ultimi anni e l'evoluzione della legislazione europea in materia di protezione dei dati, sembra indispensabile porsi nuovamente la questione dell’opportunità di una regolamentazione specifica per il settore giudiziario. Sembra altresì opportuno interrogarsi sull’importanza che attualmente viene attribuita alla protezione dei dati trattati per finalità legali nell’ambito dell’attuale sistema europeo di protezione dei dati personali. Tale necessità sembra essere corroborata dal contenuto della giurisprudenza della Corte di Strasburgo. Quest'ultima è stata, infatti, spesso adita per casi di violazioni dei diritti fondamentali dovuti ad un trattamento illecito dei dati personali per ragioni di giustizia. Inoltre, dei progetti di riforma del sistema di protezione dei dati personali sono attualmente in discussione a livello europeo. Infatti, il Consiglio d'Europa e l'Unione europea stanno attualmente lavorando sulla modernizzazione dei testi esistenti in materia di protezione dei dati personali. E 'quindi altresì interessante esaminare quale importanza è data alla protezione dei dati giudiziari nel contesto di dette riforme. Oltre a ricordare l'importanza della protezione dei dati personali, in qualsiasi momento, in qualsiasi luogo e in qualsiasi settore di attività, tra cui quello giudiziario, l’obiettivo principale delle tesi è, da un lato, di evidenziare i problemi esistenti in materia di protezione dei dati giudiziari e, dall’altro, di valutare l’opportunità dell’esistenza a livello europeo di una normativa specifica per questo settore. Nella prima parte i testi del Consiglio d'Europa e dell'Unione europea in materia di protezione dei dati e la loro applicabilità al settore giudiziario sono analizzati. Tenuto conto del fatto ch i testi attualmente in vigore presso il Consiglio d'Europa e l'Unione europea hanno, di primo acchito, lo stesso contenuto, è stato necessario analizzarli con un’ottica comparatistica al fine di capire come essi si conciliano e di verificare la loro applicabilità ai dati giudiziari
APA, Harvard, Vancouver, ISO, and other styles
6

Chambardon, Nicolas. "L'identité numérique de la personne humaine : contribution à l'étude du droit fondamental à la protection des données à caractères personnel." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE2072.

Full text
Abstract:
Les données à caractère personnel sont appréhendées par le droit comme des objets distincts de la personne à laquelle elles se rapportent. Ce statut particulier serait justifié par la transformation résultant du traitement de données. La loi du 6 janvier 1978 suggère pourtant un rattachement en définissant la donnée personnelle comme une « information relative à une personne physique identifiée ou qui peut être identifiée, directement ou indirectement ». Lesdites données sont donc des éléments identifiants, et en cela, par une interdépendance des éléments subjectifs et objectifs, des composantes de l’identité. Elles forment l’identité numérique de la personne, toujours plus sollicitée et collectée. L’hypothèse intuitive de l’identité est contrariée par le droit positif français, au sein duquel la loi Informatique et libertés marque son autonomie par rapport à l’article 9 du Code civil, matrice des droits de la personnalité. Le droit de l’Union européenne isole également, au sein de la Charte des droits fondamentaux, la protection des données à caractère personnel de la protection de la vie privée. Cette autonomisation permet l’accélération de la patrimonialisation des données à caractère personnel, visées comme éléments isolés par une multitude de contrats d’adhésion autorisant le traitement. Le sectionnement du lien entre la personne et ses données n’est toutefois pas inéluctable : la protection de l’autonomie de la personne peut maintenir cette connexion. La Cour européenne des droits de l’Homme, qui intègre la protection des données à celle de la vie privée, affirme le lien entre ces informations personnelles et l’identité. En outre, sa jurisprudence relative à la protection de l’autonomie personnelle peut constituer une réponse à l’objectivation des personnes. Dans le même sens, la jurisprudence du Conseil constitutionnel relative à la liberté personnelle, vecteur du droit au développement de la personnalité et de la protection de l’identité en France, a déjà accueilli favorablement la protection des données à caractère personnel. Une réflexion qui prend l’identité comme point de départ de l’étude d’un droit à la protection des données met en lumière le véritable enjeu de la collecte exponentielle des données à caractère personnel et du profilage qui s’en suit : l’autonomie des personnes, dont la préservation est assurée à travers le concept de personne humaine, sujet des droits fondamentaux
French law approaches personal data and the person they are related to as separated objects. This special status would be justified by the transformation resulting from the data processing. However, by defining personal data as "information relating to an identified or identifiable natural person, directly or indirectly", the law of 6 January 1978 suggests that they are in fact connected to each other. Therefore, those data are to be understood as identifying elements. Following the interdependence of subjective and objective elements, they are components of identity. They form the person’s digital identity, which is increasingly solicited and gathered. The intuitive assumption of personal data as components of identity is thwarted by French positive law, within which the Data Protection Act marks its autonomy in comparison to Article 9 of the Civil Code – the latter being the matrix of rights related to personality. The same way, protection of personal data is distinguished from protection of privacy in the European Union’s Charter of Fundamental Rights. This increasing autonomy allows the accelerated conversion of personal data into assets. In a multitude of conventions, they are regarded as isolated elements of which processing is allowed. Yet the split between the person and their data could be avoided: protection of the autonomy of the person can ensure a connexion. The European Court of Human Rights considers data protection as part of the right to privacy, hence asserting the existence of a link between personal data and identity of the individual. Moreover, its case law regarding the protection of personal autonomy may constitute an answer to the objectification of individuals. Correlatively, the French Constitutional Court has already taken data protection as a part of personal freedom, the latter being considered in its case law as the embryo of the right to the development of personality and the protection of identity. By taking identity as the starting point of a study examining a right to data protection, it is possible to reveal the stakes of exponential gathering of personal data and ensuing profiling: the autonomy of the individual. Therefore, the latter can be protected by the concept of human person as subject of fundamental rights
APA, Harvard, Vancouver, ISO, and other styles
7

Peng, Shuiran. "Analyse mathématique et numérique de plusieurs problèmes non linéaires." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2306/document.

Full text
Abstract:
Cette thèse est consacrée à l’étude théorique et numérique de plusieurs équations aux dérivées partielles non linéaires qui apparaissent dans la modélisation de la séparation de phase et des micro-systèmes électro-mécaniques (MSEM). Dans la première partie, nous étudions des modèles d’ordre élevé en séparation de phase pour lesquels nous obtenons le caractère bien posé et la dissipativité, ainsi que l’existence de l’attracteur global et, dans certains cas, des simulations numériques. De manière plus précise, nous considérons dans cette première partie des modèles de type Allen-Cahn et Cahn-Hilliard d’ordre élevé avec un potentiel régulier et des modèles de type Allen-Cahn d’ordre élevé avec un potentiel logarithmique. En outre, nous étudions des modèles anisotropes d’ordre élevé et des généralisations d’ordre élevé de l’équation de Cahn-Hilliard avec des applications en biologie, traitement d’images, etc. Nous étudions également la relaxation hyperbolique d’équations de Cahn-Hilliard anisotropes d’ordre élevé. Dans la seconde partie, nous proposons des schémas semi-discrets semi-implicites et implicites et totalement discrétisés afin de résoudre l’équation aux dérivées partielles non linéaire décrivant à la fois les effets élastiques et électrostatiques de condensateurs MSEM. Nous faisons une analyse théorique de ces schémas et de la convergence sous certaines conditions. De plus, plusieurs simulations numériques illustrent et appuient les résultats théoriques
This thesis is devoted to the theoretical and numerical study of several nonlinear partial differential equations, which occur in the mathematical modeling of phase separation and micro-electromechanical system (MEMS). In the first part, we study higher-order phase separation models for which we obtain well-posedness and dissipativity results, together with the existence of global attractors and, in certain cases, numerical simulations. More precisely, we consider in this first part higher-order Allen-Cahn and Cahn-Hilliard equations with a regular potential and higher-order Allen-Cahn equation with a logarithmic potential. Moreover, we study higher-order anisotropic models and higher-order generalized Cahn-Hilliard equations, which have applications in biology, image processing, etc. We also consider the hyperbolic relaxation of higher-order anisotropic Cahn-Hilliard equations. In the second part, we develop semi-implicit and implicit semi-discrete, as well as fully discrete, schemes for solving the nonlinear partial differential equation, which describes both the elastic and electrostatic effects in an idealized MEMS capacitor. We analyze theoretically the stability of these schemes and the convergence under certain assumptions. Furthermore, several numerical simulations illustrate and support the theoretical results
APA, Harvard, Vancouver, ISO, and other styles
8

Zwolinska, Monika. "Sécurité et libertés fondamentales des communications électroniques en droit français, européen et international." Thesis, Nice, 2015. http://www.theses.fr/2015NICE0038/document.

Full text
Abstract:
L’impact des technologies d'information et de communication est essentiel sur lesdroits de la personne, et en particulier la liberté d'expression et la protection de la vie privée. Les tensions relatives à l’établissement de la frontière entre l’espace public et l’espace privé en ligne se sont exacerbées avec la diffusion de l'informatique et la démocratisation des usages d'Internet, de la téléphonie mobile et, plus récemment, d'autres objets communicants et services numériques. De même, les libertés de s’exprimer, de communiquer et de s’informer sont mises en danger dans la mesure où, sous prétexte de la lutte contre la cybercriminalité et le cyberterrorisme, et dans un but général de maintien de l’ordre public, les autorités publiques interviennent dans les contenus publiés pour les contrôler, surveiller, restreindre ou interdire. Ceci d’autant plus que les capacités - tant des Etats que des acteurs privés - à constituer les bases de données extrêmement précises répertoriant les informations sur les habitudes de consommation, les itinéraires de déplacements ou encore sur les opinions ou pensées des personnes, augmentent progressivement. Ainsi, le besoin de la redéfinition de la manière dont est pris en compte le volet relatif au respect des droits fondamentaux des personnes face à l’environnement numérique devient pressant
The impact of today’s information and communication technologies is essential forthe exercice of human rights, particularly concerning freedom of expression and privacyprotection. With the massive use of Internet, mobile phones and – more recently – other smart objects and digital services, the tension mounts with respect to establishing the limit between public and private space online. Likewise, the freedom of expression, communication and information are at risk as - under the pretext of fighting cybercrime and cyber terrorism, as well as maintaining public order - public authorities interfere with online contents by controlling, monitoring, restraining or prohibiting it. Especially as both States’ and private companies’ capacities in creating extremely precise databases identifying information on persons’ consumption habits, itineraries, thoughts and opinions gradually increase. Therefore, the need to redefine the way in which the respect of fundamental freedoms is taken into consideration in the context of digital environment becomes urgent
APA, Harvard, Vancouver, ISO, and other styles
9

Mohty, Ola. "L'information du consommateur et le commerce électronique." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1G009.

Full text
Abstract:
Alors que l'objet de l'information légale a été élargi à plusieurs reprises, le consommateur n'est pas à même d'élaborer une décision en connaissance de cause lors de la conclusion d'un contrat en ligne. Les nouvelles pratiques induites par le numérique sont à l'origine d'un désordre informationnel inédit. De nombreuses sources produisent de multiples informations. Il est ainsi difficile de distinguer le contenu informationnel des autres éléments. L'information authentique, voire pertinente, n'est par ailleurs pas facile à repérer. Face à de telles transformations, il est nécessaire de s'interroger sur l'effectivité de l'obligation d'information et sur la cohérence du régime en vigueur. L'hypothèse d'une adaptation de l'obligation d'information nécessite un rapprochement entre les principes légaux et les conséquences engendrées par la profusion d'informations en ligne. L'évolution rapide des pratiques en ligne et le déséquilibre structurel existant entre le professionnel et le consommateur, permettent de relever un certain nombre de décalages rendant nécessaire de réviser les fondements de l'obligation d'information. Tenant compte du pouvoir renforcé du professionnel et de la collecte massive des données personnelles, il s'avère que la politique d'information doit être pensée dans une nouvelle perspective. Une nouvelle fonction de l'obligation d'information se dessine alors, qui appelle à repenser son régime et sa mise en œuvre. Le régime renouvelé de l'obligation d'information repose sur une extension de l’obligation et sur une participation effective du consommateur à sa propre information. Sa mise en œuvre se traduit par une obligation d'information permanente et une information affinée
With the current significant expansion in the concept of legal information, consumers may face some major difficulties when deciding to explore the online market. Numerous sources can provide multiple information, and buyers must conform to some chaotic practices that making it difficult to distinguish between relevant and irrelevant content. However, a well informed online consumer must rely on an authentic source with a relevant content. Therefore, it is clear that regulations related to the obligation for providing information to the consumer need to be examined closely. The recent evolution of the online market and the structural imbalance between the professional and the consumer revealed a number of significant discrepancies highlighting the need to revise the bases for consumer’s information obligation. At present, such a new concept of online information is emerging, with an extended “obligation to inform” and a permanent engagement with a reactive consumer
APA, Harvard, Vancouver, ISO, and other styles
10

Cortas, Maria. "Calcul par tranches pour les équations différentielles à variable temps à caractère explosif." Reims, 2005. http://www.theses.fr/2005REIMS001.

Full text
Abstract:
Le but de cette these est la construction, l'etude et la mise en oeuvre d'une methode de resolution numerique pour differents types d'equations differentielles ordinaires ou partielles, dont la caracteristique commune est la possibilite pour la solution de devenir infinie (comportement explosif oscillatoire ou non-oscillatoire) ou nulle (comportment extinctif) au bout d'un temps fini. Notre approche consiste a resoudre ce type d'equations par tranches de calcul avec un re-dimensionnement de la variable temps et de la solution de l'equation. Le critere principal definissant les tranches de temps est le non-depassement de la solution re-dimensionnee d'un seuil de calcul bien choisi. Un autre critere de la methode se base sur les concepts d'invariance ou de similarite imposee aux solutions re-dimensionnees dans chacune des tranches de calcul
The aim of this work is to propose a numerical method for solving different types of partial and ordinary differential equations. The equations share the same common property for their solutions to become infinite (blow up behaviour) or to become null (extinction behaviour) in finite time. This type of equations is solved using a sliced time computing technique, combined with rescaling both the variable time and the solution of the differential system. The main criterion under which the slice of time is defined, consists in imposing that the rescaled solution should not be greater than a preset cut off value. Another selection criterion for the method is based on the invariance and similarity conditions, enforced on the rescaled model in each of the time slices
APA, Harvard, Vancouver, ISO, and other styles
11

Faibra, Djok Tao Daniel. "Recherches sur les variations des souches de "Dermatophilus congolensis" : caractères biochimiques et polymorphisme de restriction." Paris 12, 1993. http://www.theses.fr/1993PA120013.

Full text
Abstract:
Dermatophilus congolensis, actinomycete ubiquiste, est agent causal de la dermatophilose, maladie du betail, entrainant des pertes economiques importantes dans les pays tropicaux humides et subhumides. Trois methodes d'investigation ont ete utilisees pour realiser une etude comparative des souches de cette bacterie isolees de niches ecologiques differentes (afrique de l'ouest, afrique centrale, afrique de l'est et madagascar, iles des caraibes et europe occidentale). La methode de taxinomie numerique appliquee a 46 souches a permis d'identifier 5 groupes taxinomiques differents. Tandis que la methode des profils biochimiques basee sur 4 tests explorant l'equipement enzymatique de chacune des 92 souches etudiees a revele 7 types de profils designes biotype a a biotype g. Enfin la troisieme methode d'investigation, portant sur le profil de restriction des genes codant pour les arn ribosomaux appliquee a 82 souches de l'actinomycete a permis d'identifier 10 types de profils differents nommes ribotype 1 a ribotype 10. Dans les 3 methodes d'investigation, on note l'existence d'un ou deux types plus communs rassemblant la majorite des souches et autour des types marginaux. Aucune correlation etroite ne semble exister entre les origines geographiques de souches et chacun de differents regroupements taxinomiques obtenus. Mais on remarque toutefois dans la methode de biotypage que les souches d'origine europeenne (france et grande-bretagne) sont cantonnees dans les biotypes e et f et que dans ces memes biotypes aucune souche d'afrique centrale et d'afrique de l'ouest, malgre le grand nombre de souches etudiees (50 souches sur les 92 etudiees) ne s'y trouve classee
APA, Harvard, Vancouver, ISO, and other styles
12

André, Jacques. "Création de fontes en typographie numérique." Habilitation à diriger des recherches, Université Rennes 1, 1993. http://tel.archives-ouvertes.fr/tel-00011218.

Full text
Abstract:
L'objet de ce mémoire est de montrer que désormais l'informatique permet de réaliser un vieux rève : se débarasser du carcan du plomb et créer de nouveaux caractères adaptés à de nouvelles technologies.

Ce mémoire comprend deux parties. La première est une courte synthèse sur la typographie. Nous rappelons ce qu'est un caractère et comment on les fabriquait autrefois puis comment on les manipule aujourd'hui, c'est-à-dire ce qu'est une fonte numérique et comment, depuis peu, on arrive à atteindre les exigences du passé.

La seconde partie montre les recherches auxquelles nous avons participé : nous montrons d'abord une possibilité fondamentale en matière de créativité : on peut désormais calculer la forme d'un caractère lorsque l'on l'utilise et non plus avant, une fois pour toutes. Nous donnons comme première application celui du dessin des symboles mathématiques. Nous montrons ensuite comment ce concept de fonte dynamique permet de créer de nouveaux caractères en fonction du contexte.

En guise de conclusion, nous indiquons plusieurs voies de recherche.
APA, Harvard, Vancouver, ISO, and other styles
13

Mullot, Rémy. "Segmentation d'images et extraction de primitives pour la reconnaissance optique de texte." Rouen, 1991. http://www.theses.fr/1991ROUES001.

Full text
Abstract:
Les travaux décrits dans ce document sont centrés sur les aspects de prétraitement des données en vue d'une fiabilisation de systèmes de reconnaissance de l'écrit. La première partie s'inscrit dans le cadre d'une étude de faisabilité concernant la lecture automatique de numéros de conteneurs. La prise en compte du type de marquage, du relief de la surface portante, de la présence de chocs ou de rouille et des conditions météorologiques lors de l'acquisition constitue une contrainte significative. Après une analyse des outils classiques de traitement de bas niveau, la démarche de localisation des zones de caractères est présentée. Ce module traite directement l'image en niveaux de gris, plaçant la binarisation en fin de traitement et uniquement sur les zones ainsi segmentées. Le seuil de binarisation est défini dynamiquement suivant l'amplitude locale des contrastes fond/caractère, sans connaissances a priori de couleur. Dès lors, chaque bloc retenu peut contenir aussi bien des caractères, que des tâches, suivant l'état du support. Une discrimination des tâches et des caractères permet de dissocier en deux phases les deux types de formes. La première ne tient compte que des grandeurs métriques de la forme. La seconde tente de reconstituer le tracé constitutif d'un caractère à partir de la notion élémentaire de trait afin de différencier un tracé cohérent (caractère) d'un tracé incohérent (tâche). Les primitives extraites peuvent être insérées sans difficulté dans un classifieur structurel classique. La deuxième partie de ce travail concerne le prétraitement des informations issues d'un système d'acquisition en ligne. Le module permet une compression des données issues d'une table à digitaliser en s'appuyant sur une polygonalisation du tracé par double moindres carrés. Un module de reconnaissance permet de vérifier l'efficacité de cette compression
APA, Harvard, Vancouver, ISO, and other styles
14

Rousseaux, Francis. "Contribution à une méthodologie d'acquisition des connaissances pour l'ingénierie des Systèmes d'Information et de Communication : l'exemple de CHEOPS pour l'aide à la gestion de crises collectives à caractère géopolitique — l'hypothèse d'un niveau des valeurs par delà le niveau des connaissances." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 1995. http://tel.archives-ouvertes.fr/tel-00417588.

Full text
Abstract:
Les Systèmes d'Information et de Communication (SIC) ont été imaginés il y a une quinzaine d'années par les Etats-Majors occidentaux comme outils pour le suivi des opérations militaires et l'aide à la décision stratégique. Il apparaît progressivement que les problèmes de coopération entre les utilisateurs et le système informatique sont à prendre en compte au cœur de la conception de tels systèmes et qu'à ce titre, la méthodologie SIC relève autant des sciences cognitives et des sciences humaines que des sciences exactes.
Un certain nombre de paradoxes doivent être dépassés pour mener à bien la réalisation d'un SIC coopératif et une démarche incrémentale s'impose, tant pour organiser une architecture SIC de type structure d'accueil d'outils informatiques, que pour dégager des spécifications fonctionnelles et ergonomiques, ou encore pour structurer une ontologie du domaine applicatif et un modèle de coopération multi-agents. Sur ce sujet, l'argumentation industrielle rejoint l'argumentation scientifique, et s'exprime à travers la dialectique offre/demande du marché des SIC, étendue aux applications civiles comme la gestion des risques industriels et la protection de l'environnement, ainsi qu'à travers le besoin de capitaliser le savoir-faire souvent artisanal des chefs de projet SIC.
Le projet CHEOPS, engagé à partir de 1991 dans le milieu industriel pour dégager un état de l'art et des axes de progrès pour les SIC, a conduit à élaborer une méthode de conduite de projets SIC, à définir une architecture incrémentale de souche applicative pour les SIC, à expliciter une ontologie du domaine de l'aide à la gestion de crises collectives à caractère géographique, et à jeter les bases d'un programme de recherche transdisciplinaire sur la coopération multi-agents dans les SIC, impliquant des industriels et des universitaires.
Pour cela une hypothèse a été formulée, qui prolonge l'hypothèse dite du Knowledge Level énoncée par Alan Newell en 1982 pour modéliser des connaissances exploitables à la fois par un agent rationnel et par une machine symbolique. Cette hypothèse, proposée sous l'appellation d'hypothèse du niveau des valeurs communes, permettrait de modéliser l'être essentiel d'un Titan Immanent personnifiant un collectif social (tout droit venu du mythe ancestral), de façon exploitable par un collectif d'agents humains ou artificiels idéalement rationnels. Une expression au niveau des valeurs communes s'exprimerait notamment au niveau des connaissances par des modèles de coopérations multi-agents, permettant en quelque sorte l'incarnation sociale du Titan.
APA, Harvard, Vancouver, ISO, and other styles
15

Bella, Gábor. "Modélisation de texte numérique multilingue : vers un modèle général et extensible fondé sur le concept de textème." Télécom Bretagne, 2008. http://www.theses.fr/2008TELB0067.

Full text
Abstract:
Cette thèse s'intéresse aux modèles de texte numériques, plus précisément à la définition même des éléments textuels atomiques et à la manière dont le texte se compose à partir de ceux-ci. En réponse aux besoins d'internationalisation des systèmes informatiques, les modèles de texte historiques, basés sur l'idée de la table de codage, ont été enrichis par des connaissances semi-formelles liées aux systèmes d'écriture, connaissances qui sont désormais essentielles pour l'exécution de la moindre opération textuelle. Ainsi sont nés le codage de caractères Unicode et les formats de fonte dits " intelligents ". Par la réalisation que cet enrichissement ne représente que le début d'une convergence vers des modèles fondés sur des principes de la représentation des connaissances, nous proposons une approche alternative à la modélisation de texte, selon laquelle l'élément textuel se définit non comme une entrée d'une table mais par les propriétés qui le décrivent. Le formalisme que nous établissons - initialement développé dans le cadre de la représentation des connaissances - nous fournit une méthodologie pour définir, pour la première fois de manière précise, des notions telles que caractère, glyphe ou usage, mais aussi de concevoir l'élément textuel généralisé que nous appelons textème et qui devient l'atome d'une famille de nouveaux modèles de texte. L'étude de ces modèles nous amène ensuite à comprendre et à formaliser, du moins en partie, des phénomènes tels que la contextualité ou la dépendance entre éléments textuels, phénomènes qui sont également présents, même si parfois de manière cachée, dans les modèles actuels. Dans la thèse nous analysons également les enjeux liés à l'implémentation des modèles proposés
This thesis is concerned with the modelling of electronic text. This modelling involves the definition both of the atomic text elements and of the way these elements join together to form textual structures. In response to the growing need for internationalisation of information systems, historical models of text, based on the concept of code tables, have been extended by semi-formalised knowledge related to the writing system so that, by now, such knowledge is essential to text processing of even the simplest kind. Thus were born the Unicode character encoding and the so-called 'intelligent' font formats. Realising that this phenomenon marks only the beginning of a convergence towards models based on the principles of knowledge representation, we here propose an alternative approach to text modelling that defines a text element not as a table entry but through the properties that describe the element. The formal framework that we establish, initially developed for the purposes of knowledge representation, provides us with a method by which precise formal definitions can be given to much-used but ill-defined notions such as character, glyph, or usage. The same framework allows us to define a generalised text element that we call a texteme, the atomic element on which a whole family of new text models is based. The study of these models then leads us to the understanding
APA, Harvard, Vancouver, ISO, and other styles
16

Mahabir, Laetitia-Amanda. "L'identité personnelle et les réseaux sociaux." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM1015.

Full text
Abstract:
L'identité des personnes dans l'espace numérique n'est pas définissable d'une seule manière, et son mode d'expression est multiple. En effet, un individu peut disposer de plusieurs identités dans le numérique et jouer des rôles sociaux différents suivant les contextes sociaux auxquels il est confronté. Mais quels peuvent être les effets de l'usage de ces masques identitaires ? L'identité des personnes dans le cadre des réseaux sociaux renvoie au questionnement de soi, et des autres. Le versant individualiste et le versant communautaire de cette identité constituent la trame de la construction identitaire de l'utilisateur. Aussi, il apparaît que la richesse mais aussi la complexité des réseaux tiennent au fait que le droit confond individu et identité. Le droit repose en effet sur une conception essentialiste de l'identité, par laquelle chacun est acteur de sa propre trajectoire. Mais l'individu ne vit pas seul, il vit en groupe et il est saisi dans un réseau de relations sociales. Aussi, concevoir une identité personnelle en marge de la réalité numérique revient à distinguer la personne de la notion de présence en ligne qui est éminemment déclarative et performative. Cela amène à reconsidérer la place de l'identité dans l'espace numérique. Pour appréhender la question de la construction de l'identité personnelle dans les réseaux sociaux, il faudra aborder les différentes approches qui visent à assurer à chacun une identité qui soit conforme à ses désirs. Il sera également nécessaire d'adapter les mesures existantes à la réalité virtuelle, afin d'établir un régime de l'identité personnelle plus sécurisé et respectueux des droits de la personnalité de chaque utilisateur
The identity of people in the digital space cannot be defined in one way. Its mode of expression is multiple. In fact, an individual can have several identities in the digital environment. It can also play different social roles according to social contexts that it faces. But what are effects of using identity masks ? The individual's identity within the social networks refers to the self-questioning, and others. The individualistic side and the community side of this identity are the foundation of the building of user's identity. Moreover, it appears that the wealth and the complexity of networks are the result of the confusion made by the law between individual and identity. In fact, the law is based on an essentialist conception of identity, by which each player has its own trajectory. But the individual does not live alone, he lives in a group and it is part of a network of social relations. The identity is made in the interaction of a claimed identity for oneself and assigned by others. Also, develop a personal identity on the fringes of the digital reality is to distinguish the person of the concept of online presence which is eminently declarative and performative.All this leads to reconsider the place of identity in the digital space. To understand the question of the construction of personal identity in social network, different approaches will be detailed. Those approaches are aimed to ensure everyone an identity according his wishes. Also, it will be necessary to adapt the existing measures to the virtual reality, in order to establish a more secure regime of personal identity, in respect of the rights of each user's personnality
APA, Harvard, Vancouver, ISO, and other styles
17

Goulvestre, Ann-maël. "La RFID et le droit." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM1016.

Full text
Abstract:
L'acronyme anglais RFID « Radio Frequency Identification » désigne en français l'identification par radiofréquence, une technologie qui permet d'identifier et de localiser sans contact des objets ou des personnes grâce à une micro-puce qui dialogue par ondes radio avec un lecteur, sur des distances allant de quelques centimètres à une dizaine de mètres. Déjà présente dans notre quotidien, via les cartes d'accès à certains bâtiments notamment, la RFID est appelée à se développer de manière exponentielle dans les années à venir pour concrétiser à terme le futur Internet des objets.À l'instar de toute innovation technologique, la RFID nécessite un environnement juridique pour pouvoir s'épanouir à la fois économiquement et socialement. C'est pourquoi la présente étude se propose d'exposer les diverses problématiques juridiques afférentes à la RFID. Pour assurer le succès d'une technologie émergente, il est nécessaire que les individus aient confiance en elle, sans quoi le marché ne pourra pas démarrer. Afin de générer cette confiance, la sécurité est primordiale, avant tout d'un point de vue technique mais également sur le plan juridique.L'objectif de cette thèse sera d'étudier le cadre juridique applicable à la technologie RFID, à la fois du point de vue de son contenant, le système, et de son contenu, les données. Quels sont les défis juridiques soulevés par cette technologie ? Existe-t-il des textes applicables à la RFID, et quels sont-ils ? Comment le juriste intègre-t-il cette technologie émergente au cadre juridique existant ? La réflexion est menée afin d'apprécier la nature des rapports entretenus entre la RFID et le droit, et leur éventuelle perfectibilité
The acronym RFID stands for Radio Frequency Identification, a wireless technology that provides the ability to automatically identify and locate tags attached to objects, as well as the person who is actually carrying them. The technology relies on storing and retrieving data, through radio waves by using devices called RFID tags. Those tags are already prevalent in our everyday lives to grant building access control for example. And this is only the beginning, as RFID technology is expected to be one of the main brick of the Internet of things. Like any other new technology, RFID needs a suitable legal framework to get benefits to both consumers and businesses. This work is thus intended to bring up RFID from a legal perspective. Indeed, one of the new technology key successes lies on the way the consumers will grasp it. When looking for economic profits, it is then essential to focus on public perception and consumer confidence related to this technology. And this would not come along without security concern which represents actually the main challenge to face, most of all from a technical perspective, but also from a legal one.For this reason, the proposed work aims at exposing the legal framework which could be applied both to its container (the RFID system) and its content (the RFID data). It is worth analysing the way the legal practitioner can deal with this technology and all its related issues. Are there any specifics legislations on this subject? And if so, what are they? A critical assessment is undertaken to appreciate the substance of the relationships existing between RFID and law, and potential improvement that come along
APA, Harvard, Vancouver, ISO, and other styles
18

Bourdon, Jean-Luc. "Parallélisme et cognition appliqués à la reconnaissance de caractères." Rouen, 1991. http://www.theses.fr/1991ROUE5034.

Full text
Abstract:
Les travaux décrits dans ce document présentent les différentes étapes d'une chaîne de reconnaissance de caractères bruités, pour une application de type vision artificielle dans un environnement industriel, à l'aide d'une modélisation simple de certains éléments de la perception visuelle. Tout d'abord, quelques généralités sur le parallélisme matériel sont exposées afin de permettre une bonne appréhension du processeur utilisé : le transputer. Ensuite étant donné notre approche cognitive, une description des différents niveaux sensoriel, perceptif et cognitif permet une justification de notre modèle et de nos choix. Dans une première étape, différents prétraitements sont mis en place. Tout d'abord, nous extrayons la zone contenant les caractères à l'aide de deux méthodes concurrentes. La première est une approche classique basée sur une analyse de l'évolution en niveaux de gris de l'image; et la seconde, plus cognitive de par son contrôle, recherche le plus grand nombre de traits verticaux débutant à une même ordonnée caractéristique d'un bord de zone. Après cette localisation, une binarisation dynamique est faite sur la zone segmentée. Le seuil utilisé pour la binarisation est déterminé suivant l'amplitude locale des contrastes fond/caractère. Des lors, deux extracteurs de primitives complémentaires sont mis en place en parallèle, chacun des classifieurs associés fournissant un résultat provisoire. L'un de ces extracteurs se réfère à une vision globale de l'image (ou vision préattentive) et l'autre à une vision locale (ou vision attentive) de cette image. Le choix de la solution définitive est déterminé par un processus superviseur (ou métaexpert) qui tient compte des différents résultats des tests projectifs et des solutions provisoires proposées, en effectuant un traitement de l'ambiguÏté lorsqu'il existe une contradiction. C'est grâce à sa connaissance de la connaissance (ou métaconnaissance) et à ses règles de décision qu'il permet la reconnaissance des caractères
APA, Harvard, Vancouver, ISO, and other styles
19

Wehbi, Hassan. "Segmentation et reconnaissance en-ligne des mots d'écriture manuscrite mixte." Paris 12, 1996. http://www.theses.fr/1996PA120017.

Full text
Abstract:
La reconnaissance automatique de l'ecriture naturelle fait l'objet de recherches soutenues depuis de nombreuses annees. Aujourd'hui, les problemes poses sont encore nombreux et loin d'etre resolus. Afin de les apprehender globalement et de parvenir a une solution fiable, il importe de bien les identifier, de les circonscrire et de les separer clairement pour mieux les traiter. Dans la ligne de cette demarche, nous proposons un systeme de reconnaissance hierarchique a architecture modulaire. Chaque module represente une unite de traitement specialisee realisant une tache bien definie: segmentation-reconnaissance des lettres dans le mot, du mot dans une phrase, classification-validation des mots reconnus etc ce travail consiste alors a realiser un systeme en-ligne pour identifier et reconnaitre les mots dans une ecriture manuscrite mixte contenant a la fois des chiffres, des lettres minuscules et des lettres majuscules. Ce systeme est donc dote de deux modules de segmentation representant une phase de pretraitement avant la reconnaissance de mots. Le premier module sert a localiser les traces des mots dans une phrase et le deuxieme a separer les chiffres et les lettres majuscules des lettres minuscules. Les caracteres batons sont identifies grace a un module de reconnaissance fonde sur la cooperation de methodes complementaires. Ce dernier est lie a un classifieur dont le role est de selectionner le caractere le plus vraisemblable. Le trace restant est ensuite envoye au module de reconnaissance de lettres minuscules. Les caracteres batons et les lettres minuscules ainsi reconnus sont combines en respectant leur occurrence dans le trace. Les mots resultants sont compares a ceux d'un dictionnaire afin de former une liste triee de mots candidats dans l'ordre decroissant de ressemblance. Le premier de cette liste est le mot reconnu
APA, Harvard, Vancouver, ISO, and other styles
20

Lethelier, Edouard. "Combinaison des concepts de segmentation et de reconnaissance pour l'écriture manuscrite hors-ligne : application au traitement des montants numériques des chèques." Rouen, 1996. http://www.theses.fr/1996ROUES045.

Full text
Abstract:
Les travaux décrits dans ce document concernent l'étude et la mise en œuvre d'un principe de segmentation et de reconnaissance hors-ligne de caractères manuscrits omni-scripteurs appliqué à l'identification du montant numérique des chèques postaux. La première partie présente une analyse bibliographique des différents travaux concernant le traitement du manuscrit hors-ligne. La seconde partie expose l'approche retenue en s'appuyant sur un fondement probabiliste issu de la théorie de l'information. Les particularités de notre étude sont liées au contexte réel de l'application, ainsi qu'à l'importante variabilité d'écriture d'un montant numérique.
APA, Harvard, Vancouver, ISO, and other styles
21

Oulhadj, Hamouche. "Des primitives aux lettres : une méthode structurelle de reconnaissance en ligne de mots d'écriture cursive manuscrite avec un apprentissage continu." Paris 12, 1990. http://www.theses.fr/1990PA120045.

Full text
Abstract:
Depuis des années, la communication homme-machine par l'intermédiaire de l'écriture naturelle se heurte, sans succès, au problème complexe de la diversité des formes a identifier. Pour appréhender un tel problème, une nouvelle méthode de reconnaissance structurelle et analytique est proposée. L'approche développée est fondée sur des primitives topologiques insensibles a certaines variations de traces (changement de position et d'échelle, inclinaisons des lettres). Elle assume l'hypothèse d'existence d'un modèle collectif d'écriture que chacun reproduit avec une déformation propre. Ce modèle générique permet de considérer que tout mot écrit par un scripteur donne peut être assimilé a une séquence de lettres prototypes plus ou moins dégénérées. Ainsi, l'information nécessaire à la description d'une lettre repose non seulement sur les primitives représentant cette lettre mais aussi sur l'évaluation du taux de dégénérescence susceptible d'affecter cette lettre en cours de trace. Dans l'approche développée, le problème très délicat de la segmentation du mot est également soulevé. Pour effectuer une segmentation qui correspond exactement aux lettres à reconnaître, une méthode de segmentation intelligente, basée sur une stratégie de prédiction-vérification est proposée. Cette méthode permet de combiner la segmentation du mot et la reconnaissance des lettres dans une opération unique, évitant la segmentation a priori qui est source d'erreurs potentielles. Ces différentes propriétés, renforcées par divers types de connaissances relatives au langage écrit, sont a l'origine des bonnes performances du système étudié
APA, Harvard, Vancouver, ISO, and other styles
22

Renau-Ferrer, Ney. "Outils et méthodes pour l'analyse automatique multi-niveaux de tracés manuscrits à caractère géométrique acquis en ligne." Thesis, Antilles-Guyane, 2011. http://www.theses.fr/2010AGUY0394/document.

Full text
Abstract:
Cette thèse traite de la problématique de l'analyse automatique de tracés manuscrits réalisés à mains levée, à caractère géométrique et acquis en ligne. Lorsque l'on analyse un tracé en ligne, on peut le faire selon plusieurs angles. Comme pour les tracés hors ligne, on peu s'atteler à reconnaitre la forme produite. Mais le caractère en ligne de l'acquisition permet également d'autres niveaux d'analyse, comme l'analyse de la procédure utilisée par le dessinateur lors de la production de son dessin. Nous avons dans le cadre de ce travail élaboré des outils permettant de telles analyses de la production de tracé. Dans une première partie nous traitons des pré traitements à effectuer sur le tracé afin de pouvoir procéder aux analyses spatio-graphique et procédurale. Ces pré traitements sont le filtrage, la segmentation mixte à base d'arcs de cercles et de segments de droite, la sélection des points d'intérêt ainsi que l'identification de la nature de ces points. La seconde partie concerne l'analyse visuo-spatiale. Nous abordons alors deux aspects: la question de la reconnaissance des formes et celle de l'évaluation automatique de leur qualité. Notre contribution consiste en une méthode de reconnaissance basée sur l'apparence utilisant des descripteurs locaux. La dernière partie traite de l'analyse procédurale. Nous proposons une méthode d'extraction et de modélisation de la procédure mise en œuvre lors du dessin d'une forme. Nous montrons comment en utilisant cette modélisation, nous pouvons non seulement déterminer la procédure favorite d'un utilisateur mais également reconnaitre un dessinateur par l'analyse de sa procédure
This thesis handles the problem of the automatic analysis of online hand drawn geometric sketches. An online sketch can be analysed according to several points of view. As for offline sketching, we can try to recognize the produced shape. However, online sketching allows other levels of analysis. For example the analysis of the behavior of the drawer during the production of the sketch. In this thesis, we have tried to develop tools allowing a multi level analysis, including both shape and behavior analysis. The first part of our work deals with the pre treatments that must be performed on the sketch in order to allow upper level analysis. Those pre treatments are filtering, mixed segmentation and feature points detection and labelisation. In the second part, we approach shape analysis in two aspects: shape recognition and evaluation. We have developed a appearance based method which use local descriptors to allows both recognition and evaluation of the quality of a produced shape compared to the model . in the last part we propose a method for drawer's behavior extraction and modeling. Then we show how we can not only determine the favorite procedure of a drawer but also recognize the drawer by analyzing his behavior
APA, Harvard, Vancouver, ISO, and other styles
23

Heutte, Laurent. "Reconnaissance de caractères manuscrits : application a la lecture automatique des chèques et des enveloppes postales." Rouen, 1994. http://www.theses.fr/1994ROUES049.

Full text
Abstract:
Cette thèse traite de la reconnaissance de caractères manuscrits provenant de la segmentation d'un mot ou d'une chaîne de caractères numériques dans le contexte particulier de la lecture automatique de chèques et d'enveloppes postales. Le premier chapitre présente un état de l'art dans le domaine de la reconnaissance de l'écrit et notamment les étapes concernant la conception d'un système de reconnaissance de caractères. Le deuxième chapitre traite de la reconnaissance proprement dite. Après une analyse détaillée des différentes méthodes proposées dans la littérature, les deux méthodes retenues, la séparation linéaire et la distance de Mahalanobis, sont décrites. Le troisième chapitre est consacré à la définition des caractéristiques et à la construction du vecteur représentant chaque caractère. Les familles de caractéristiques retenues, incluant à la fois des mesures statistiques et des primitives structurelles, sont détectées à partir de différentes représentations du caractère. Un algorithme de recherche d'une combinaison optimale représentation/famille de caractéristiques est présenté. Le choix de la dimension du vecteur et le problème des composantes manquantes pour certaines observations sont discutés. Le dernier chapitre présente les différentes applications dans lesquelles les travaux de la thèse ont été intégrés. Les deux premières applications concernent la lecture automatique des enveloppes postales américaines et plus spécialement la reconnaissance de graphèmes issus de la segmentation des mots manuscrits cursifs ainsi que la reconnaissance des chiffres provenant de la segmentation du code postal. La troisième application concerne la lecture automatique des chèques postaux français et plus particulièrement la reconnaissance des chiffres issus de la segmentation des deux montants numériques. Les différents aspects de l'étude présentée sont approfondis tant sur le plan bibliographique que sur le plan algorithmique. Ils ont conduit à la mise au point de méthodes de reconnaissance robustes qui ont été validées expérimentalement sur d'importantes bases de caractères et de mots manuscrits
APA, Harvard, Vancouver, ISO, and other styles
24

Chatelain, Clément. "Extraction de séquences numériques dans des documents manuscrits quelconques." Phd thesis, Université de Rouen, 2006. http://tel.archives-ouvertes.fr/tel-00143090.

Full text
Abstract:
Dans le cadre du traitement automatique de courriers entrants, nous présentons dans cette thèse l'étude, la conception et la mise en \oe uvre d'un système d'extraction de champs numériques dans des documents manuscrits quelconques. En effet, si la reconnaissance d'entités manuscrites isolées peut être considérée comme un problème en partie résolu, l'extraction d'information dans des images de documents aussi complexes et peu contraints que les courriers manuscrits libres reste à ce jour un réel défi. Ce problème nécessite aussi bien la mise en \oe uvre de méthodes classiques de reconnaissance d'entités manuscrites que de méthodes issues du domaine de l'extraction d'information dans des documents électroniques. Notre contribution repose sur le développement de deux stratégies différentes : la première réalise l'extraction des champs numériques en se basant sur les techniques classiques de reconnaissance de l'écriture, alors que la seconde, plus proche des méthodes utilisées pour l'extraction d'information, réalise indépendamment la localisation et la reconnaissance des champs. Les résultats obtenus sur une base réelle de courriers manuscrits montrent que les choix plus originaux de la seconde approche se révèlent également plus pertinents. Il en résulte un système complet, générique et industrialisable répondant à l'une des perspectives émergentes dans le domaine de la lecture automatique de documents manuscrits : l'extraction d'informations complexes dans des images de documents quelconques.
APA, Harvard, Vancouver, ISO, and other styles
25

Laroche, Benjamin. "Le big data à l’épreuve du règlement européen général sur la protection des données." Thesis, Toulouse 1, 2020. http://www.theses.fr/2020TOU10041.

Full text
Abstract:
Les usages quotidiens des citoyens d’une société numérique produisent des données de manière exponentielle, et ce, à une vitesse considérable. Dans un tel contexte, le développement de technologies de collecte massive de données apparait comme une évidence. De telles technologies impliquent le traitementde données à caractère personnel afin de créer une valeur économique ou encore d’optimiser des processus métiers ou décisionnels. Le règlement général sur la protection des données (UE) 2016/679 (RGPD) tend à encadrer ces pratiques en respectant des impératifs de souplesse et de neutralité technologique. Cependant, le big data s’avère d’une complexité inédite, ses caractéristiques propres allant à l’encontre même de plusieurs principes du règlement général sur la protection des données. Largement partagé, ce constat a peu à peu imposé une forme implicite de status quo ne permettant pas la résolution effective de l’incompatibilité entre la réalité du big data et son encadrement juridique opéré par le règlement général à son égard. Pour ce faire, une approche distributive, fondée sur les composantes du big data que sont sa structure, ses données ainsi que ses capacités algorithmiques, permettra ensuite d’étudier la qualification de cette notion afin d’en dégager un régime approprié. Résoudre une telle problématique passera tout d’abord par une actualisation de la qualification de données à caractère personnel afin de répondre à la complexification des traitements de données réalisés à l’aide de capacités algorithmiques avancées. De plus, la responsabilisation des différents acteurs impliqués, notamment au travers du régime de responsabilité conjointe de traitement, sera associée à la notion de risque afin d’apporter l’actualisation nécessaire à l’encadrement du big data. Pour finir, l’application d’une méthodologie d’analyse d’impact sur la protection des données viendra éprouver puis synthétiser l’indispensable renforcement de l’adéquation entre la théorie juridique et la réalité pratique du big data
Citizens’ daily uses of technologies in a digital society exponentially produce data. In this context, the development of massive data collection appears as inevitable. Such technologies involve the processing of personal data in order to create economic value or to optimize business or decision-making processes. The General Data Protection Regulation (EU) 2016/679 (GDPR) aims to regulate these practices while respecting the imperatives of flexibility and technological neutrality. However, big data is proving to be an unprecedentedly complex legal issue, as its specific characteristics oppose several principles of the General Data Protection Regulation. Widely shared, this observation has gradually imposed an implicit form of status quo that does not allow for the effective resolution of the incompatibility between the reality of big data and the legal framework provided by the GDPR. In order to solve this equation, a distributive approach, based on the components of the big data: its structure, its data and its algorithmic capabilities, will then make it possible to study the qualification of this notion in order to identify an appropriate regime. Overcoming such a problem will, first of all, involve updating the qualification of personal data in order to respond to the increasing complexity of data processing carried out using advanced algorithmic capabilities. In addition, the accountability of the various actors involved, in particular through joint responsibilities for processing, will be associated with the notion of risk in order to bring the necessary updating to the regulation of big data. Finally, the application of a data protection impact analysis methodology will test and then synthesize the indispensable strengthening of the adequacy between legal theory and the practical reality of big data
APA, Harvard, Vancouver, ISO, and other styles
26

Michel, Justin. "Contributions à l'étude des cavités nasosinusiennes de l'adulte par la morphométrie géométrique et la simulation numérique des écoulements." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM5077/document.

Full text
Abstract:
Objectif - Réaliser une étude en morphométrie géométrique pour définir la variabilité des sinus frontaux et maxillaires au sein d’une population adulte et pour l’établissement du profil biologique des individus à partir de la géométrie des sinus frontaux et maxillaires.- Valider un modèle de simulation numérique des écoulements pour l’étude de la ventilation nasosinusienne chez l’adulte et observer l’influence de la conformation sinusienne sur la ventilation nasosinusienne.Nous avons défini 20 landmarks fiables et reproductibles pour les sinus frontaux et maxillaires. Nous avons décrit la variabilité des sinus frontaux et maxillaires au sein d’un échantillon de population adulte. Enfin, nous avons mis en évidence l’existence d’allométries pour les sinus frontaux et maxillaires mais aussi l’existence d’un dimorphisme sexuel pour la conformation des sinus maxillairesNous proposons un modèle fiable de simulation numérique des écoulements à partir d’examen tomodensitométriques. Sur la base de ce modèle, nous n’avons pas mis en évidence d’influence de la conformation sinusienne sur la ventilation nasale et le conditionnement thermique de l’air inspiré et expiré
Objectives - to conduct a morphometric geometric study in order to define the variability of the frontal and maxillary sinuses in an adult population and to determinate the sex of individuals - to validate a Computational fluid dynamic model of the nasal airflow and to describe the influence of the sinus conformation on the nasal airflow.We defined twenty reliable and reproducible landmarks for frontal and maxillary sinuses. We described the variability of the frontal and maxillary sinuses in an adult population sample. Finally, we highlighted the existence of allometries for frontal and maxillary sinuses but also the existence of a sexual dimorphism in the conformation of the maxillary sinusesComputational fluid dynamics:We offer a reliable model for numerical simulation of flows from CT examination. Based on this model, we have not shown any influence of the conformation on the nasal sinus ventilation and thermal conditioning of the inhaled and exhaled air. We showed no ventilation in the sinuses in the nasal respiratory cycle. Future studies will endeavor to define a humidity conditioning air model and a simulation model of production of NO and gas exchange between sinuses and nasal cavities
APA, Harvard, Vancouver, ISO, and other styles
27

Jean-Caurant, Axel. "Analyse de documents et du comportement des utilisateurs pour améliorer l'accès à l'information." Thesis, La Rochelle, 2018. http://www.theses.fr/2018LAROS028/document.

Full text
Abstract:
L'augmentation constante du nombre de documents disponibles et des moyens d'accès transforme les pratiques de recherche d'information. Depuis quelques années, de plus en plus de plateformes de recherche d'information à destination des chercheurs ou du grand public font leur apparition sur la toile. Ce flot d'information est bien évidemment une opportunité pour les utilisateurs mais ils sont maintenant confrontés à de nouveaux problèmes. Auparavant, la principale problématique des chercheurs était de savoir si une information existait. Aujourd'hui, il est plutôt question de savoir comment accéder à une information pertinente. Pour résoudre ce problème, deux leviers d'action seront étudiés dans cette thèse. Nous pensons qu'il est avant tout important d'identifier l'usage qui est fait des principaux moyens d'accès à l'information. Être capable d'interpréter le comportement des utilisateurs est une étape nécessaire pour d'abord identifier ce que ces derniers comprennent des systèmes de recherche, et ensuite ce qui doit être approfondi. En effet, la plupart de ces systèmes agissent comme des boîtes noires qui masquent les différents processus sous-jacents. Si ces mécanismes n'ont pas besoin d'être entièrement maitrisés par les utilisateurs, ils ont cependant un impact majeur qui doit être pris en compte dans l'exploitation des résultats. Pourquoi le moteur de recherche me renvoie-t-il ces résultats ? Pourquoi ce document est-il plus pertinent qu'un autre ? Ces questions apparemment banales sont pourtant essentielles à une recherche d'information critique. Nous pensons que les utilisateurs ont le droit et le devoir de s'interroger sur la pertinence des outils informatiques mis à leur disposition. Pour les aider dans cette tâche, nous avons développé une plateforme de recherche d'information en ligne à double usage. Elle peut tout d'abord être utilisée pour l'observation et la compréhension du comportement des utilisateurs. De plus, elle peut aussi être utilisée comme support pédagogique, pour mettre en évidence les différents biais de recherche auxquels les utilisateurs sont confrontés. Dans le même temps, ces outils doivent être améliorés. Nous prenons dans cette thèse l'exemple de la qualité des documents qui a un impact certain sur leur accessibilité. La quantité de documents disponibles ne cessant d'augmenter, les opérateurs humains sont de moins en moins capables de les corriger manuellement et de s'assurer de leur qualité. Il est donc nécessaire de mettre en place de nouvelles stratégies pour améliorer le fonctionnement des systèmes de recherche. Nous proposons dans cette thèse une méthode pour automatiquement identifier et corriger certaines erreurs générées par les processus automatiques d'extraction d'information (en particulier l'OCR)
The constant increase of available documents and tools to access them has led to a change of research practices. For a few years now, more and more information retrieval platforms are made available online to the scientific community or the public. This data deluge is a great opportunity for users seeking information. However, it comes with new problems and new challenges to overcome. Formerly, the main issue for researchers was to identify if a particular resource existed. Today, the challenge is more about finding how to access pertinent information. We have identified two distinct levers to limit the impact of this new search paradigm. First, we believe that it is necessary to analyze how the different search platforms are used. To be able to understand and read into users behavior is a necessary step to comprehend what users understand, and to identify what they need to get an in-depth understanding of the operation of such platforms. Indeed, most systems act as black boxes which conceal the underlying transformations applied on data. Users do not need to understand in details how those algorithms work. However, because those algorithms have a major impact on the accessibility of information, and need to be taken into account during the exploitation of search results. Why is the search engine returning those particular results ? Why is this document more pertinent than another ? Such seemingly naive questions are nonetheless essential to undertake an analytical approach of the information search and retrieval task. We think that users have a right and a duty to question themselves about the relevance of such and such tool at their disposal. To help them cope with these issues, we developped a dual-use information search platform. On the one hand, it can be used to observe and understand user behavior. On the other hand, it can be used as a pedagogical medium to highlight research biases users can be exposed to. At the same time, we believe that the tools themselves must be improved. In the second part of this thesis, we study the impact that the quality of documents can have on their accessibility. Because of the increase of documents available online, human operators are less and less able to insure their quality. Thus, there is a need to set up new strategies to improve the way search platform operate and process documents. We propose a new method to automatically identify and correct errors generated by information extraction process such as OCR
APA, Harvard, Vancouver, ISO, and other styles
28

Andro, Mathieu. "Bibliothèques numériques et crowdsourcing : expérimentations autour de Numalire, projet de numérisation à la demande par crowdfunding." Thesis, Paris 8, 2016. http://www.theses.fr/2016PA080039/document.

Full text
Abstract:
Au lieu d’externaliser certaines tâches auprès de prestataires ayant recours à des pays dont la main d’œuvre est bon marché, les bibliothèques dans le monde font de plus en plus appel aux foules d’internautes, rendant plus collaborative leur relation avec les usagers. Après un chapitre conceptuel sur les conséquences de ce nouveau modèle économique sur la société et sur les bibliothèques, un panorama des projets est présenté dans les domaines de la numérisation à la demande, de la correction participative de l’OCR notamment sous la forme de jeux (gamification) et de la folksonomie. Ce panorama débouche sur un état de l’art du crowdsourcing appliqué à la numérisation et aux bibliothèques numériques et sur des analyses dans le domaine des sciences de l’information et de la communication. Enfin, sont présentées des apports conceptuels et des expérimentations originales, principalement autour du projet Numalire de numérisation à la demande par crowdfunding
Instead of outsource tasks to providers in cheap labour countries, libraries increasingly appeal to online crowds, making relationship with their users more collaborative. The PhD begins with a conceptual chapter on the consequences of this new economic model on society and on libraries. Then, an overview of the projects is presented in the areas of digitization on demand (crowdfunding) and OCR correction with gamification and folksonomy. It is followed by a state of the art, a review and analysis on crowdsourcing applied to digitization and digital libraries. Finally, conceptual contributions and original experiments, with Numalire, a crowdfunding and digitization on demand project are presented
APA, Harvard, Vancouver, ISO, and other styles
29

Frémondière, Pierre. "L'évolution de l'accouchement dans la lignée humaine. Estimation de la contrainte fœto-pelvienne par deux méthodes complémentaires : la simulation numérique de l'accouchement et l'analyse discriminante des modalités d'accouchement au sein d'un échantillon obstétrical." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM5013.

Full text
Abstract:
Notre objectif est d’étudier les modalités d’accouchement au sein de la lignée humaine. Pour cela, nous utilisons deux approches complémentaires : la simulation numérique de l’accouchement et l’analyse discriminante des modalités d’accouchement au sein d’un échantillon obstétrical. Dans un premier temps, nous construisons des maillages de bassins et de crânes de foetus fossiles grâce à une méthode d’interpolation : le krigeage. Les groupes fossiles considérés sont les Australopithèques, les premiers représentants du genre Homo (PRGH) et les représentants du genre Homo au Pléistocène moyen et supérieur (RPMS). Les dimensions des crânes juvéniles sont utilisées pour estimer « à rebours » les dimensions néonatales à l’aide de courbes de croissance humaine et de chimpanzé. Nous réalisons une simulation numérique de l’accouchement à partir des maillages de ces dyades « virtuelles ». Puis nous réalisons des analyses discriminantes avec un jeu de données issu de mesures réalisées sur le pelviscanner de femmes et sur les mesures du crâne de leur nouveau-né afin de séparer les modalités d’accouchement grâce aux variables foeto-pelviennes. Ces mêmes variables foeto-pelviennes sont mesurées chez les dyades fossiles afin d’identifier, par les analyses discriminantes, leurs modalités d’accouchement les plus probables. Nos résultats suggèrent un accouchement eutocique sans rotation intra-pelvienne chez les Australopithèques, eutocique avec rotation intrapelvienne chez les PRGH, dystocique ou eutocique chez les RPMS, l’accouchement eutocique est caractérisé par une rotation et une incurvation de la trajectoire de descente
The purpose of this thesis is to estimate delivery outcomes for extinct hominids. We therefore use two complementary methods : numerical simulation of childbirth and discriminant analysis of delivery outcomes from an obstetrical sample. First, we use kriging to construct meshes of pelves and neonatal skulls. Fossil hominid specimens included in the study are Australopithecines, early Homo (EH) and middle to early Pleistocene Homo (MEPH). We estimate fetal cranial dimensions with chimpanzee or human cranial growth curve that we reversly use and apply on juveniles skull measurements. “Virtual” dyads are formed from pelves and neonatal skulls. Then, we simulate childbirth of these « virtual » dyads. Different levels of laxity of the sacro-iliac junction and different positions of the fetal head are considered. Finally, we use an obstetrical sample: delivery outcome is noted, CT-scans are used to obtain maternal pelvic measurements and diameters of the fetal head were also measured after delivery. A discriminant analysis is performed using this obstetrical sample to separate delivery outcomes thanks to fetal-pelvic measurements. Fossil dyads were subsequently added in the discriminant analysis to assess delivery outcomes to which they belong. Results suggest small fetal-pelvic constraint for Austalopithecines. This constraint is moderate for EH. Fetal-pelvic constraint is more important for MEPH. We suggest that rotational birth appears with EH. The curved trajectory of the fetal head appears with MEPH. Emergence of rotational birth and curved trajectory of fetal head are probably explained by two major increases in brain size during late and middle Pleistocene
APA, Harvard, Vancouver, ISO, and other styles
30

Elagouni, Khaoula. "Combining neural-based approaches and linguistic knowledge for text recognition in multimedia documents." Thesis, Rennes, INSA, 2013. http://www.theses.fr/2013ISAR0013/document.

Full text
Abstract:
Les travaux de cette thèse portent sur la reconnaissance des indices textuels dans les images et les vidéos. Dans ce cadre, nous avons conçu des prototypes d'OCR (optical character recognition) capables de reconnaître tant des textes incrustés que des textes de scène acquis n'importe où au sein d'images ou de vidéos. Nous nous sommes intéressée à la définition d'approches robustes à la variabilité des textes et aux conditions d'acquisition. Plus précisément, nous avons proposé deux types de méthodes dédiées à la reconnaissance de texte : - une approche fondée sur une segmentation en caractères qui recherche des séparations non linéaires entre les caractères adaptées à la morphologie de ces derniers ; - deux approches se passant de la segmentation en intégrant un processus de scanning multi-échelles ; la première utilise un modèle de graphe pour reconnaître les textes tandis que la seconde intègre un modèle connexionniste récurrent spécifiquement développé pour gérer les contraintes spatiales entre les caractères.Outre les originalités de chacune des approches, deux contributions supplémentaires de ce travail résident dans la définition d'une reconnaissance de caractères fondée sur un modèle de classification neuronale et l'intégration de certaines connaissances linguistiques permettant de tirer profit du contexte lexical. Les différentes méthodes conçues ont été évaluées sur deux bases de documents : une base de textes incrustés dans des vidéos et une base publique de textes de scène. Les expérimentations ont permis de montrer la robustesse des approches et de comparer leurs performances à celles de l'état de l'art, mettant en évidence leurs avantages et leurs limites
This thesis focuses on the recognition of textual clues in images and videos. In this context, OCR (optical character recognition) systems, able to recognize caption texts as well as natural scene texts captured anywhere in the environment have been designed. Novel approaches, robust to text variability (differentfonts, colors, sizes, etc.) and acquisition conditions (complex background, non uniform lighting, low resolution, etc.) have been proposed. In particular, two kinds of methods dedicated to text recognition are provided:- A segmentation-based approach that computes nonlinear separations between characters well adapted to the localmorphology of images;- Two segmentation-free approaches that integrate a multi-scale scanning scheme. The first one relies on a graph model, while the second one uses a particular connectionist recurrent model able to handle spatial constraints between characters.In addition to the originalities of each approach, two extra contributions of this work lie in the design of a character recognition method based on a neural classification model and the incorporation of some linguistic knowledge that enables to take into account the lexical context.The proposed OCR systems were tested and evaluated on two datasets: a caption texts video dataset and a natural scene texts dataset (namely the public database ICDAR 2003). Experiments have demonstrated the efficiency of our approaches and have permitted to compare their performances to those of state-of-the-art methods, highlighting their advantages and limits
APA, Harvard, Vancouver, ISO, and other styles
31

Journault, Matthieu. "Analyse statique modulaire précise par interprétation abstraite pour la preuve automatique de correction de programmes et pour l’inférence de contrats." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS152.

Full text
Abstract:
Assurer le passage à l’échelle des analyseurs statiques définis par interprétation abstraite pose des difficultés. Une méthode classique d’accélération consiste en la découverte et la réutilisation de contrats satisfaits par certaines commandes du code source. Cette thèse s’intéresse à un sous-ensemble de C qui ne permet pas la récursivité, pour lequel on définit un analyseur modulaire capable d’inférer, de prouver et d'exploiter de tels contrats. Notre analyse est défini au-dessus d’un analyseur C existant et est donc capable de manipuler des types unions, des types structures, des tableaux, des allocations de mémoire (statique et dynamique), des pointeurs, y compris l'arithmétique de pointeur et le transtypage, appels de fonction, des chaînes de caractères, .... La représentation des chaînes de caractère est gérée par un nouveau domaine abstrait défini dans cette thèse. Nous proposons de plus une technique paramétrique de transformation de la sémantique classique des domaines abstraits vers une sémantique d’ensembles hétérogènes. Cette technique ne maintient qu’un seul état abstrait numérique, par opposition au partitionnement. Finalement nous proposons un domaine abstrait capable de représenter des ensembles d’arbres dont les feuilles peuvent contenir des labels numériques. Cette abstraction est basée sur les langages régulier (d'arbre), et délègue une partie de son abstraction à un domaine numérique sous-jacent. Cette thèse s’étant déroulée au sein du projet mopsa, nous donnons donc un aperçu de certains résultats obtenus par l’équipe pendant la thèse
Ensuring the scalability of static analyzers defined by abstract interpretation poses difficulties. A classical technique known to speed up analyses is the discovery and reuse of summaries for some of the sequences of statements of the source code. In this thesis we focus on a subset of C that does not allow recursion and define a modular analyzer, able to infer, prove and use (to improve the efficiency) such summaries. Our modular analyzer is built on top of an existing C analyzer and is therefore able to handle unions, structures, arrays, memory allocations (static and dynamic), pointers, pointer arithmetics, pointer casts, function calls, string manipulations, ... . String handling is provided by a new abstract domain defined in this thesis. In this thesis we provide a lifting of classical numerical abstract domains to the representation of heterogeneous sets. This lifting can be used for relational domains and maintains only one numerical abstract state, by opposition to partitioning. The last point of interest of this thesis is the definition of an abstract domain able to represent sets of trees with numerically labeled leaves. This abstraction is based on regular and tree regular languages and delegates the handling of numerical constraints to an underlying domain able to represent heterogeneous sets of environments. As the thesis took place in the mopsa project, we provide an overview of some of the results obtained by the mopsa team during the thesis
APA, Harvard, Vancouver, ISO, and other styles
32

Peyrard, Clément. "Single image super-resolution based on neural networks for text and face recognition." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI083/document.

Full text
Abstract:
Cette thèse porte sur les méthodes de super-résolution (SR) pour l’amélioration des performances des systèmes de reconnaissance automatique (OCR, reconnaissance faciale). Les méthodes de Super-Résolution (SR) permettent de générer des images haute résolution (HR) à partir d’images basse résolution (BR). Contrairement à un rééchantillonage par interpolation, elles restituent les hautes fréquences spatiales et compensent les artéfacts (flou, crénelures). Parmi elles, les méthodes d’apprentissage automatique telles que les réseaux de neurones artificiels permettent d’apprendre et de modéliser la relation entre les images BR et HR à partir d’exemples. Ce travail démontre l’intérêt des méthodes de SR à base de réseaux de neurones pour les systèmes de reconnaissance automatique. Les réseaux de neurones à convolutions sont particulièrement adaptés puisqu’ils peuvent être entraînés à extraire des caractéristiques non-linéaires bidimensionnelles pertinentes tout en apprenant la correspondance entre les espaces BR et HR. Sur des images de type documents, la méthode proposée permet d’améliorer la précision en reconnaissance de caractère de +7.85 points par rapport à une simple interpolation. La création d’une base d’images annotée et l’organisation d’une compétition internationale (ICDAR2015) ont souligné l’intérêt et la pertinence de telles approches. Pour les images de visages, les caractéristiques faciales sont cruciales pour la reconnaissance automatique. Une méthode en deux étapes est proposée dans laquelle la qualité de l’image est d’abord globalement améliorée, pour ensuite se focaliser sur les caractéristiques essentielles grâce à des modèles spécifiques. Les performances d’un système de vérification faciale se trouvent améliorées de +6.91 à +8.15 points. Enfin, pour le traitement d’images BR en conditions réelles, l’utilisation de réseaux de neurones profonds permet d’absorber la variabilité des noyaux de flous caractérisant l’image BR, et produire des images HR ayant des statistiques naturelles sans connaissance du modèle d’observation exact
This thesis is focussed on super-resolution (SR) methods for improving automatic recognition system (Optical Character Recognition, face recognition) in realistic contexts. SR methods allow to generate high resolution images from low resolution ones. Unlike upsampling methods such as interpolation, they restore spatial high frequencies and compensate artefacts such as blur or jaggy edges. In particular, example-based approaches learn and model the relationship between low and high resolution spaces via pairs of low and high resolution images. Artificial Neural Networks are among the most efficient systems to address this problem. This work demonstrate the interest of SR methods based on neural networks for improved automatic recognition systems. By adapting the data, it is possible to train such Machine Learning algorithms to produce high-resolution images. Convolutional Neural Networks are especially efficient as they are trained to simultaneously extract relevant non-linear features while learning the mapping between low and high resolution spaces. On document text images, the proposed method improves OCR accuracy by +7.85 points compared with simple interpolation. The creation of an annotated image dataset and the organisation of an international competition (ICDAR2015) highlighted the interest and the relevance of such approaches. Moreover, if a priori knowledge is available, it can be used by a suitable network architecture. For facial images, face features are critical for automatic recognition. A two step method is proposed in which image resolution is first improved, followed by specialised models that focus on the essential features. An off-the-shelf face verification system has its performance improved from +6.91 up to +8.15 points. Finally, to address the variability of real-world low-resolution images, deep neural networks allow to absorb the diversity of the blurring kernels that characterise the low-resolution images. With a single model, high-resolution images are produced with natural image statistics, without any knowledge of the actual observation model of the low-resolution image
APA, Harvard, Vancouver, ISO, and other styles
33

Chen, Yong. "Analyse et interprétation d'images à l'usage des personnes non-voyantes : application à la génération automatique d'images en relief à partir d'équipements banalisés." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080046/document.

Full text
Abstract:
L’information visuelle est une source d’information très riche à laquelle les non-voyants et mal voyants (ou Personnes Aveugles et Malvoyantes : PAM) n’ont pas toujours accès. La présence des images constitue un réel handicap pour les PAM. Une transcription de ces images en relief peut augmenter leur accessibilité aux PAM. En prenant en compte les aspects de la cognition tactile chez les non-voyants, les règles, et les recommandations de la conception d’une image en relief, nous avons orienté notre travail sur les analyses et les comparaisons des techniques de traitement d’image numérique pour trouver les méthodes adaptées afin de créer une procédure automatique de création d’images en relief. A la fin de ce travail, nous avons testé les images en relief créées avec des non-voyants. Deux points importants ont été évalués :  Le taux de compréhension d’une image en relief ; Le temps d’exploration nécessaire.Les résultats suggèrent que les images faites par ce système sont accessibles pour les non-voyants braillistes. Le système implémenté peut être considéré comme un outil efficace de création d’image en relief :  Le système propose une possibilité de généraliser et formaliser la procédure de création d'image en relief ;  Le système donne une solution très rapide et facile.Le système peut traiter des images pédagogiques avec du contenu sémantique simplifié. Il peut donc être utilisé dans de nombreux cas d’utilisation. Par exemple, il peut être utilisé comme un outil pratique pour rendre accessible les images numériques. Il permet aussi la coopération avec d’autres modalités de présentation d’image au non-voyant, par exemple avec une carte interactive classique
Visual information is a very rich source of information to which blind and visually impaired people (BVI) not always have access. The presence of images is a real handicap for the BVI. The transcription into an embossed image may increase the accessibility of an image to BVI. Our work takes into account the aspects of tactile cognition, the rules and the recommendations for the design of an embossed image. We focused our work on the analysis and comparison of digital image processing techniques in order to find the suitable methods to create an automatic procedure for embossing images. At the end of this research, we tested the embossed images created by our system with users with blindness. In the tests, two important points were evaluated:  The degree of understanding of an embossed image; The time required for exploration.The results suggest that the images made by this system are accessible to blind users who know braille. The implemented system can be regarded as an effective tool for the creation of an embossed image. The system offers an opportunity to generalize and formalize the procedure for creating an embossed image. The system gives a very quick and easy solution.The system can process pedagogical images with simplified semantic contents. It can be used as a practical tool for making digital images accessible. It also offers the possibility of cooperation with other modalities of presentation of the image to blind people, for example a traditional interactive map
APA, Harvard, Vancouver, ISO, and other styles
34

Do, Thanh Ha. "Sparse representations over learned dictionary for document analysis." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0021/document.

Full text
Abstract:
Dans cette thèse, nous nous concentrons sur comment les représentations parcimonieuses peuvent aider à augmenter les performances pour réduire le bruit, extraire des régions de texte, reconnaissance des formes et localiser des symboles dans des documents graphiques. Pour ce faire, tout d'abord, nous donnons une synthèse des représentations parcimonieuses et ses applications en traitement d'images. Ensuite, nous présentons notre motivation pour l'utilisation de dictionnaires d'apprentissage avec des algorithmes efficaces pour les construire. Après avoir décrit l'idée générale des représentations parcimonieuses et du dictionnaire d'apprentissage, nous présentons nos contributions dans le domaine de la reconnaissance de symboles et du traitement des documents en les comparants aux travaux de l'état de l'art. Ces contributions s'emploient à répondre aux questions suivantes: La première question est comment nous pouvons supprimer le bruit des images où il n'existe aucune hypothèse sur le modèle de bruit sous-jacent à ces images ? La deuxième question est comment les représentations parcimonieuses sur le dictionnaire d'apprentissage peuvent être adaptées pour séparer le texte du graphique dans des documents? La troisième question est comment nous pouvons appliquer la représentation parcimonieuse à reconnaissance de symboles? Nous complétons cette thèse en proposant une approche de localisation de symboles dans les documents graphiques qui utilise les représentations parcimonieuses pour coder un vocabulaire visuel
In this thesis, we focus on how sparse representations can help to increase the performance of noise removal, text region extraction, pattern recognition and spotting symbols in graphical documents. To do that, first of all, we give a survey of sparse representations and its applications in image processing. Then, we present the motivation of building learning dictionary and efficient algorithms for constructing a learning dictionary. After describing the general idea of sparse representations and learned dictionary, we bring some contributions in the field of symbol recognition and document processing that achieve better performances compared to the state-of-the-art. These contributions begin by finding the answers to the following questions. The first question is how we can remove the noise of a document when we have no assumptions about the model of noise found in these images? The second question is how sparse representations over learned dictionary can separate the text/graphic parts in the graphical document? The third question is how we can apply the sparse representation for symbol recognition? We complete this thesis by proposing an approach of spotting symbols that use sparse representations for the coding of a visual vocabulary
APA, Harvard, Vancouver, ISO, and other styles
35

Kesiman, Made Windu Antara. "Document image analysis of Balinese palm leaf manuscripts." Thesis, La Rochelle, 2018. http://www.theses.fr/2018LAROS013/document.

Full text
Abstract:
Les collections de manuscrits sur feuilles de palmier sont devenues une partie intégrante de la culture et de la vie des peuples de l'Asie du Sud-Est. Avec l’augmentation des projets de numérisation des documents patrimoniaux à travers le monde, les collections de manuscrits sur feuilles de palmier ont finalement attiré l'attention des chercheurs en analyse d'images de documents (AID). Les travaux de recherche menés dans le cadre de cette thèse ont porté sur les manuscrits d'Indonésie, et en particulier sur les manuscrits de Bali. Nos travaux visent à proposer des méthodes d’analyse pour les manuscrits sur feuilles de palmier. En effet, ces collections offrent de nouveaux défis car elles utilisent, d’une part, un support spécifique : les feuilles de palmier, et d’autre part, un langage et un script qui n'ont jamais été analysés auparavant. Prenant en compte, le contexte et les conditions de stockage des collections de manuscrits sur feuilles de palmier à Bali, nos travaux ont pour objectif d’apporter une valeur ajoutée aux manuscrits numérisés en développant des outils pour analyser, translittérer et indexer le contenu des manuscrits sur feuilles de palmier. Ces systèmes rendront ces manuscrits plus accessibles, lisibles et compréhensibles à un public plus large ainsi que pour les chercheurs et les étudiants du monde entier. Cette thèse a permis de développer un système d’AID pour les images de documents sur feuilles de palmier, comprenant plusieurs tâches de traitement d'images : numérisation du document, construction de la vérité terrain, binarisation, segmentation des lignes de texte et des glyphes, la reconnaissance des glyphes et des mots, translittération et l’indexation de document. Nous avons ainsi créé le premier corpus et jeu de données de manuscrits balinais sur feuilles de palmier. Ce corpus est actuellement disponible pour les chercheurs en AID. Nous avons également développé un système de reconnaissance des glyphes et un système de translittération automatique des manuscrits balinais. Cette thèse propose un schéma complet de reconnaissance de glyphes spatialement catégorisé pour la translittération des manuscrits balinais sur feuilles de palmier. Le schéma proposé comprend six tâches : la segmentation de lignes de texte et de glyphes, un processus de classification de glyphes, la détection de la position spatiale pour la catégorisation des glyphes, une reconnaissance globale et catégorisée des glyphes, la sélection des glyphes et la translittération basée sur des règles phonologiques. La translittération automatique de l'écriture balinaise nécessite de mettre en œuvre des mécanismes de représentation des connaissances et des règles phonologiques. Nous proposons un système de translittération sans segmentation basée sur la méthode LSTM. Celui-ci a été testé sur des données réelles et synthétiques. Il comprend un schéma d'apprentissage à deux niveaux pouvant s’appliquer au niveau du mot et au niveau de la ligne de texte
The collection of palm leaf manuscripts is an important part of Southeast Asian people’s culture and life. Following the increasing of the digitization projects of heritage documents around the world, the collection of palm leaf manuscripts in Southeast Asia finally attracted the attention of researchers in document image analysis (DIA). The research work conducted for this dissertation focused on the heritage documents of the collection of palm leaf manuscripts from Indonesia, especially the palm leaf manuscripts from Bali. This dissertation took part in exploring DIA researches for palm leaf manuscripts collection. This collection offers new challenges for DIA researches because it uses palm leaf as writing media and also with a language and script that have never been analyzed before. Motivated by the contextual situations and real conditions of the palm leaf manuscript collections in Bali, this research tried to bring added value to digitized palm leaf manuscripts by developing tools to analyze, to transliterate and to index the content of palm leaf manuscripts. These systems aim at making palm leaf manuscripts more accessible, readable and understandable to a wider audience and, to scholars and students all over the world. This research developed a DIA system for document images of palm leaf manuscripts, that includes several image processing tasks, beginning with digitization of the document, ground truth construction, binarization, text line and glyph segmentation, ending with glyph and word recognition, transliteration and document indexing and retrieval. In this research, we created the first corpus and dataset of the Balinese palm leaf manuscripts for the DIA research community. We also developed the glyph recognition system and the automatic transliteration system for the Balinese palm leaf manuscripts. This dissertation proposed a complete scheme of spatially categorized glyph recognition for the transliteration of Balinese palm leaf manuscripts. The proposed scheme consists of six tasks: the text line and glyph segmentation, the glyph ordering process, the detection of the spatial position for glyph category, the global and categorized glyph recognition, the option selection for glyph recognition and the transliteration with phonological rules-based machine. An implementation of knowledge representation and phonological rules for the automatic transliteration of Balinese script on palm leaf manuscript is proposed. The adaptation of a segmentation-free LSTM-based transliteration system with the generated synthetic dataset and the training schemes at two different levels (word level and text line level) is also proposed
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography