Contents
Academic literature on the topic 'Reconhecimento lexical'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Reconhecimento lexical.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Journal articles on the topic "Reconhecimento lexical"
Araujo Neto, Humberto Meira, and Camila Tavares Leite. "Reconhecimento visual de palavras ortográficas e datilológicas por pessoas surdas." Revista Linguíʃtica 16, no. 3 (December 30, 2020): 352–71. http://dx.doi.org/10.31513/linguistica.2020.v16n3a34233.
Full textRodrigues, Aryon Dall’Igna. "Alguns problemas em torno da categoria lexical verbo em línguas Tupí-Guaraní." Revista Brasileira de Linguística Antropológica 3, no. 1 (April 18, 2013): 103–14. http://dx.doi.org/10.26512/rbla.v3i1.16238.
Full textEstivalet, Gustavo Lopez. "Variáveis lexicais e ortográficas no acesso lexical das palavras do português brasileiro." Revista Linguíʃtica 16, no. 1 (April 30, 2020): 264–77. http://dx.doi.org/10.31513/linguistica.2020.v16n1a31539.
Full textSicuro Corrêa, Letícia Maria, Vanessa Gouveia Ribeiro, and Michele F. Perelmuter. "A compreensão de reflexivos e pronominais no espectro autista." Veredas - Revista de Estudos Linguísticos 24, no. 1 (September 11, 2020): 403–32. http://dx.doi.org/10.34019/1982-2243.2020.v24.30646.
Full textDa Fonseca, Sandro Rodrigues, Ana Beatriz Arêas da Luz Fontes, and Ingrid Finger. "Construção de uma tarefa de reconhecimento de tradução Libras-Português: considerações metodológicas." Letras de Hoje 53, no. 1 (June 5, 2018): 89. http://dx.doi.org/10.15448/1984-7726.2018.1.28964.
Full textPalmeira, Andressa Da Silva, Paulo Henrique Ferreira De Araujo-Barbosa, and Emerson Fachin-Martins. "RECONHECIMENTO LEXICAL DE ESTUDANTES DE FISIOTERAPIA DURANTE LEITURA DA CLASSIFICAÇÃO INTERNACIONAL DE FUNCIONALIDADE, INCAPACIDADE E SAÚDE." CADERNOS DE EDUCAÇÃO, SAÚDE E FISIOTERAPIA 5, no. 9 (May 15, 2019): 17–31. http://dx.doi.org/10.18310/2358-8306.v5n9.p17.
Full textSalgado, Ana Rachel. "Pronomes que também são termos: análise contextual dos pronomes yo e ello em textos de psicanálise no par de idiomas português / espanhol." Revista Brasileira de Linguística Aplicada 15, no. 3 (September 2015): 839–72. http://dx.doi.org/10.1590/1984-639820157812.
Full textPinheiro, Ângela Maria V., Carolina Rezende Cunha, and Patrícia Silva Lúcio. "Tarefa de leitura de palavras em voz alta: uma proposta de análise dos erros." Revista Portuguesa de Educação 21, no. 2 (February 27, 2018): 115. http://dx.doi.org/10.21814/rpe.13928.
Full textEstivalet, Gustavo Lopez, and Fanny Elise Meunier. "Processamento do verbo francês através da decomposição lexical." Caligrama: Revista de Estudos Românicos 20, no. 2 (January 27, 2016): 73. http://dx.doi.org/10.17851/2238-3824.20.2.73-93.
Full textNunes, Ticiane Rodrigues, and Expedito Eloísio Ximenes. "A CULTURA DO COURO NO CEARÁ: UM ESTUDO DO CAMPO LEXICAL DO SELEIRO." Revista de Estudos de Cultura 4, no. 2 (August 31, 2018): 111–22. http://dx.doi.org/10.32748/revec.v4i2.11194.
Full textDissertations / Theses on the topic "Reconhecimento lexical"
Consoni, Fernanda. "O acento lexical como pista para o reconhecimento de palavras." Universidade de São Paulo, 2006. http://www.teses.usp.br/teses/disponiveis/8/8142/tde-22082007-152238/.
Full textIn the experimental phonological research described in this dissertation, we aimed at testing the Portuguese speakers\' ability to recognize words from its initial fragments with information based on the lexical stress. Considering this goal, we \"administered\" a test in which segmented words from Portuguese language were presented to the subjects who had to choose it among three initial stressed patterns - stressed/unstressed, unstressed/stressed, unstressed/unstressed. The choice was done according to the judgment of the sequence of sounds heard by the subjects. The test results revealed that the subjects are able to recognize a word on the basis of its initial segments and information about the lexical stress. The pattern unstressed/unstressed, named PP, presented a higher index of amiss judgment, 46%, the greatest part of the erroneous PP judgment favors the pattern unstressed/stressed. The acoustic parameters that represents Portuguese stress were observed and did not present justification for the errors of PP. Therefore, we could conclude that the choices made by the subjects were leaded by the Portuguese stressed pattern, the paroxítono.
Pickbrenner, Minka Beate. "O acesso lexical em multilíngues inglês (l2) e alemão (l3) no reconhecimento de palavras tipologicamente similares." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2014. http://hdl.handle.net/10183/168990.
Full textThe present study focuses on interlingual interaction in third language processing. The main objective was to investigate the effects of interlingual interaction during lexical access in a group of multilingual learners of German (L3), who speak English as their first foreign language (L2) and Brazilian Portuguese as their mother language (L1) in a word recognition task in the L3. The concepts and principles that guide studies about foreign language acquisition (FLA), bilingualism/plurilingualism and second language processing, from a psycholinguistic perspective, provided the necessary theoretical background for the study. Within this context, this study investigated possible cognate effects between English as an L2 and German as an L3 in the recognition of 160 words in German in a lexical decision task. An English cognate facilitation effect in the processing of German was expected to be found. The hypothesis predicted both lower reaction times (RT) and lower percentage of errors (PE) in the recognition of German words that are cognates with English, in comparison to control words and pseudowords. The analysis revealed no statistically significant cognate effect, but the data suggested interlinguistic coativation and were interpreted as evidence for the non- selective hypothesis in bilingual/multilingual lexical processing. An important finding of the study is related to the profile of the participants, Brazilian multilinguals who have a particular language history experience. The little awareness regarding the importance of previous knowledge of English in the beginning process of learning German may have been an intervening factor in the participants's behavior in the experimental task. In addition to contemplating the interlanguage relationship of Brazilian Portuguese with two typologically similar foreign languages in two fields of study that are still in very early stages in the country, plurilingualism and second language processing, the present study may also serve as an aid to develop studies that aim to qualify the acquisition of L3 in plurilingual instruction environments, considering the specificities of the Brazilian multilingual scenario.
Nobre, Alexandre de Pontes. "Processamento léxico-semântico : relações com reconhecimento visual de palavras e compreensão de leitura textual." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2013. http://hdl.handle.net/10183/101860.
Full textThe aim of this dissertation was to investigate the relationships between word recognition and reading comprehension with lexical-semantic processing. The dissertation is composed of two studies. In the first study, models of word reading and reading comprehension are reviewed in order to examine the role of lexical-semantic processing in visual word recognition and in reading comprehension. The semantic priming paradigm is presented as an instrument for the investigation of relationships between lexical-semantic processing and the components of reading examined. The main theoretical models of semantic priming are presented and a review of studies which relate semantic priming and reading is conducted, and some conclusions and perspectives for investigation are presented. In the second study, relations between lexical-semantic processing and reading (visual word recognition and reading comprehension) were investigated empirically in a sample of 68 children, aged seven to twelve years, from private schools in Porto Alegre, Brazil. Lexical-semantic processing was evaluated by a lexical decision task in the semantic priming paradigm and reading abilities were assessed with a word/nonword reading task and a reading comprehension task (questionnaire and story retelling). Correlations between semantic priming effects and word reading and reading comprehension were investigated, as well as if semantic priming effects predict performance on the reading task. Results showed that semantic priming correlates with both groups of reading measures, and that word reading partially mediates the relation between lexical-semantic processing and reading comprehension.
Alves, Daniel Pereira. "Pistas prosódicas no acesso lexical on-line de falantes adultos do português brasileiro." Universidade Federal de Juiz de Fora (UFJF), 2010. https://repositorio.ufjf.br/jspui/handle/ufjf/2473.
Full textApproved for entry into archive by Diamantino Mayra (mayra.diamantino@ufjf.edu.br) on 2016-09-13T15:13:04Z (GMT) No. of bitstreams: 1 danielpereiraalves.pdf: 2032305 bytes, checksum: 7b4aa5be0177e28263a5fdb95d14c75e (MD5)
Made available in DSpace on 2016-09-13T15:13:04Z (GMT). No. of bitstreams: 1 danielpereiraalves.pdf: 2032305 bytes, checksum: 7b4aa5be0177e28263a5fdb95d14c75e (MD5) Previous issue date: 2010-08-20
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Este trabalho investiga o papel de fronteiras de constituintes prosódicos no processamento lexical de falantes adultos do Português Brasileiro (PB). Assume-se que a fala é organizada em uma hierarquia de constituintes prosódicos que fazem interface com outros constituintes gramaticais, ainda que essa relação não seja necessariamente biunívoca (NESPOR & VOGEL, 1986). A partir de evidências experimentais sobre o papel da informação prosódica no processamento sintático e lexical (Christophe et. al., 2004; Millote et al., 2008; Silva & Name, 2009), propõem-se dois experimentos com o intuito de se investigar a ação de fronteiras de constituintes prosódicos no acesso lexical on-line, por meio da técnica de detecção de palavras. O primeiro experimento analisou o efeito da ambigüidade local (gol/ golfe) presente em fronteiras de palavra prosódica (FPP): [gol ω final]. O segundo experimento examinou o mesmo efeito em fronteiras de sintagma fonológico (FSF): [...gol] ϕ [ficou...]. Os resultados indicam um efeito significativo da ambiguidade em FPP, e não em FSF. Quer isso dizer que as informações acústicas em FSF atuaram na inibição de itens lexicais potencialmente competidores (golfe) no PB. Discutem-se as implicações de tal resultado para o processamento da linguagem à luz de modelos de modelos de acesso lexical (LEVELT, 1989; MCCLELLAND & ELMAN, 1986), do modelo de computação linguística do Programa Minimalista (HAUSER, CHOMSKY e FITCH, 2002; CHOMSKY, 1999) e da possibilidade de integração entre teoria linguística e modelos de processamento de linguagem (CÔRREA & AUGUSTO, 2006).
This study investigates the role of prosodic constituents’ boundaries in lexical processing by Brazilian Portuguese (BP) adult speakers. It is assumed that speech is organized in a hierarchy of prosodic constituents that interface with other grammatical constituents, although this relation is not necessarily mapped in a one-to-one fashion (NESPOR & VOGEL, 1986). Motivated by experimental evidence on the role of prosodic information in syntactic and lexical processing (CHRISTOPHE et al., 2004, MILLOTE et al., 2008; SILVA & NAME, 2009), two experiments are proposed in order to investigate the role of prosodic constituents’ boundaries in on-line lexical access by means of word monitoring tasks. The first experiment analyzed the local ambiguity (gol/golfe) effect on prosodic word boundaries (FPP): [gol ω final]. The second experiment examined the same effect on phonological phrase boundaries (FSF): [...gol] ϕ [ficou...]. The results indicate a significant ambiguity effect in the FPP condition and not in the FSF one. This means that the acoustic information in FSF played a significant role in the inhibition of competitor lexical items (golfe) in BP. The implications of this result for language processing are discussed in light of lexical access models (LEVELT, 1989; MCCLELLAND & ELMAN, 1986), the language computation model of the Minimalist Program (HAUSER, CHOMSKY e FITCH, 2002; CHOMSKY, 1999) and the possibility of integration between linguistic theory and language processing models (CÔRREA & AUGUSTO, 2006).
Ricardo, dos Reis Justi Francis. "O efeito de vizinhança ortográfica no português brasileiro : uma comparação de múltiplas tarefas." Universidade Federal de Pernambuco, 2011. https://repositorio.ufpe.br/handle/123456789/8071.
Full textConselho Nacional de Desenvolvimento Científico e Tecnológico
O presente estudo investigou o efeito de vizinhança ortográfica no reconhecimento visual de palavras em adultos falantes do português do Brasil. Uma análise de corpus indicou que N (neighborhood density) e NF (neighborhood frequency) apresentam uma correlação ínfima com TLN (transposed letter neighbors), sendo que, ao mesmo tempo, afetam uma proporção muito maior de palavras do português brasileiro. Desse modo, uma das primeiras conclusões desse trabalho foi a de que, pelo menos no caso do português brasileiro, N e NF são medidas mais relevantes de vizinhança ortográfica do que TLN. Além da análise de corpus, foram desenvolvidos quatro experimentos para investigar os efeitos de N e NF. Efeitos inibidores de NF foram observados nos experimentos que utilizaram ou uma tarefa de identificação perceptual ou uma tarefa de leitura em voz alta do tipo Go/NoGo (na qual as pseudopalavras tinham muitos vizinhos ortográficos). Já efeitos facilitadores de N foram observados nos experimentos que utilizaram ou uma tarefa de identificação perceptual ou uma tarefa de leitura em voz alta (onde as palavras e pseudopalavras deviam ser lidas em uma mesma sessão). No experimento que utilizou uma tarefa de categorização semântica os efeitos de N e NF foram nulos. Os resultados desse estudo foram então combinados com os resultados de outros estudos realizados com falantes do português brasileiro e uma meta-análise foi realizada. A meta-análise indicou que o tipo de tarefa empregada nos estudos é um moderador dos efeitos de N e NF. Sendo que, de uma forma geral, em tarefas onde o processo de identificação lexical foi enfatizado o efeito de NF foi inibidor e o de N nulo e, em tarefas onde algum tipo de processamento estratégico predominou, o efeito de NF foi nulo e o de N foi facilitador. Os resultados desse estudo corroboram a hipótese de que os efeitos de N e NF podem ser modulados pela demanda das tarefas utilizadas para se investigar o acesso lexical e, além disso, colocam em dificuldades modelos de reconhecimento visual de palavras que não têm mecanismos específicos que os permitam predizer quais tarefas enfatizam processos estratégicos e quais enfatizam o processo de identificação lexical
Babini, Maurizio [UNESP]. "Reconhecimento de padrões lexicais por meio de redes neurais." Universidade Estadual Paulista (UNESP), 2006. http://hdl.handle.net/11449/87226.
Full textCoordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
A compreensão da linguagem humana é uma das tarefas mais difíceis do Processamento da Linguagem Natural (PLN) e de modo mais geral da Automação e da Inteligência Artificial (IA). O objetivo desta pesquisa é estudar os mecanismos que permitem utilizar uma rede neural artificial para poder interpretar textos. Este trabalho deveria ser utilizado, futuramente, para criar uma interface em um ambiente de co-projeto, capaz de agrupar/classificar termos/conceitos, reconhecendo padrões textuais. Para alcançar nossos objetivos de pesquisa em nível de Mestrado, utilizamos o modelo semântico de Bernard Pottier, e uma Rede Neural Artificial de Kohonen. A escolha do modelo de Bernard Pottier deve-se ao fato de que este autor é um dos mais conceituados lingüistas da atualidade e que seu modelo é largamente utilizado por pesquisadores de vários paises, tendo sido, assim, comprovada a sua validade. No que diz respeito à rede de Kohonen, acreditamos que seja a mais indicada para este tipo de aplicação, tendo em vista o fato de que essa rede tenta imitar o funcionamento do cérebro humano, em particular, reproduzindo o mapeamento de suas áreas especializadas, e tendo como hipótese de partida que, no córtex humano, conceitos similares ou de áreas afins distribuem-se em áreas limítrofes. A escolha desse tipo de rede para o nosso trabalho deve-se, outrossim, ao fato de que ela utiliza um tipo de treinamento competitivo e não-supervisionado que permite organizar os vetores (dados) de entrada em agrupamentos (clusters).
The understanding of human language is one of the most difficult tasks of Natural Language Processing (NLP), and, in general, of Automation and Artificial Intelligence (AI). The aim of our research is to study the mechanisms that allow using an artificial neural network for interpreting text. Later, our work should be used to create an interface, in a hardware/software co-design environment, capable of clustering/classifying terms/concepts, and recognizing text patterns. In order to achieve the objectives of our research, we used the semantic model of Bernard Pottier, and a Kohonen Artificial Neural Network. The choice of Bernard Pottier's model was motivated by the fact that the author is one of the most eminent linguists nowadays, and his model is largely used by researchers in many countries, thus proving the validity of his proposal. About the Kohonen net, we believe that it is the most appropriate net for this kind of application, due to the fact that this net tries to imitate the functioning of the human brain, particularly reproducing the map of its specialized areas, as well as due to the fact that this net has as initial hypothesis that, in the human cortex, similar concepts or concepts of similar areas are distributed in closed areas. Another reason for the choice of this kind of net in our study is that it uses a competitive and non-supervising training, that allows organizing entry vectors (data) in clusters.
Babini, Maurizio. "Reconhecimento de padrões lexicais por meio de redes neurais /." Ilha Solteira : [s.n.], 2006. http://hdl.handle.net/11449/87226.
Full textBanca: Aledir Silveira Pereira
Banca: Furio Damiani
Resumo: A compreensão da linguagem humana é uma das tarefas mais difíceis do Processamento da Linguagem Natural (PLN) e de modo mais geral da Automação e da Inteligência Artificial (IA). O objetivo desta pesquisa é estudar os mecanismos que permitem utilizar uma rede neural artificial para poder interpretar textos. Este trabalho deveria ser utilizado, futuramente, para criar uma interface em um ambiente de co-projeto, capaz de agrupar/classificar termos/conceitos, reconhecendo padrões textuais. Para alcançar nossos objetivos de pesquisa em nível de Mestrado, utilizamos o modelo semântico de Bernard Pottier, e uma Rede Neural Artificial de Kohonen. A escolha do modelo de Bernard Pottier deve-se ao fato de que este autor é um dos mais conceituados lingüistas da atualidade e que seu modelo é largamente utilizado por pesquisadores de vários paises, tendo sido, assim, comprovada a sua validade. No que diz respeito à rede de Kohonen, acreditamos que seja a mais indicada para este tipo de aplicação, tendo em vista o fato de que essa rede tenta imitar o funcionamento do cérebro humano, em particular, reproduzindo o mapeamento de suas áreas especializadas, e tendo como hipótese de partida que, no córtex humano, conceitos similares ou de áreas afins distribuem-se em áreas limítrofes. A escolha desse tipo de rede para o nosso trabalho deve-se, outrossim, ao fato de que ela utiliza um tipo de treinamento competitivo e não-supervisionado que permite organizar os vetores (dados) de entrada em agrupamentos (clusters).
Abstract: The understanding of human language is one of the most difficult tasks of Natural Language Processing (NLP), and, in general, of Automation and Artificial Intelligence (AI). The aim of our research is to study the mechanisms that allow using an artificial neural network for interpreting text. Later, our work should be used to create an interface, in a hardware/software co-design environment, capable of clustering/classifying terms/concepts, and recognizing text patterns. In order to achieve the objectives of our research, we used the semantic model of Bernard Pottier, and a Kohonen Artificial Neural Network. The choice of Bernard Pottier's model was motivated by the fact that the author is one of the most eminent linguists nowadays, and his model is largely used by researchers in many countries, thus proving the validity of his proposal. About the Kohonen net, we believe that it is the most appropriate net for this kind of application, due to the fact that this net tries to imitate the functioning of the human brain, particularly reproducing the map of its specialized areas, as well as due to the fact that this net has as initial hypothesis that, in the human cortex, similar concepts or concepts of similar areas are distributed in closed areas. Another reason for the choice of this kind of net in our study is that it uses a competitive and non-supervising training, that allows organizing entry vectors (data) in clusters.
Mestre
Watanabe, Willian Massami. "Auxílio à leitura de textos em português facilitado: questões de acessibilidade." Universidade de São Paulo, 2010. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-22092010-164526/.
Full textThe large capacity of Web for providing information leads to multiple possibilities and opportunities for users. The development of high performance networks and ubiquitous devices allow users to retrieve content from any location and in different scenarios or situations they might face in their lives. Unfortunately the possibilities offered by the Web are not necessarily currently available to all. Individuals who do not have completely compliant software or hardware that are able to deal with the latest technologies, or have some kind of physical or cognitive disability, find it difficult to interact with web pages, depending on the page structure and the ways in which the content is made available. When specifically considering the cognitive disabilities, users classified as functionally illiterate face severe difficulties accessing web content. The heavy use of texts on interfaces design creates an accessibility barrier to those who cannot read fluently in their mother tongue due to both text length and linguistic complexity. In this context, this work aims at developing an assistive technologies that assists functionally illiterate users during their reading and understanding of websites textual content. These assistive technologies make use of natural language processing (NLP) techniques that maximize reading comprehension for users. The natural language techniques that this work uses are: syntactic simplification, automatic summarization, lexical elaboration and named entities recognition. The techniques are used with the goal of automatically adapting textual content available on the Web for users with low literacy levels. This work describes the accessibility characteristics incorporated into both resultant applications (Facilita and Educational Facilita) that focus on low literacy users limitations towards computer usage and experience. This work contributed with the identification of accessibility requirements for low-literacy users, elaboration of an accessibility model for automatizing WCAG conformance and development of accessible solutions in the user agents layer of web applications
Lores, Fernando Anglada, and 92981584637. "Método para o reconhecimento eficaz de palavras em cenários ruídosos combinando índices de Mor-fraenkel com hashing perfeito mínimo." Universidade Federal do Amazonas, 2018. https://tede.ufam.edu.br/handle/tede/6447.
Full textApproved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-06-15T19:11:07Z (GMT) No. of bitstreams: 3 Doc Mestrado-Fernando Anglada Lores.pdf: 1344067 bytes, checksum: abcd47d0b52a4a7d1dfc4c35a8bb9fb8 (MD5) 303 Folha de Aprovação - Fernando Anglada (Digitalizada).pdf: 322777 bytes, checksum: 0d92c3a2022fc03865c512191ef847c5 (MD5) 303 ATA de Defesa - Fernando Anglada (Digitalizada).pdf: 427295 bytes, checksum: 679e8a5a5bb29d93ea4432599571facb (MD5)
Rejected by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br), reason: Favor, informar nome da Agência de Fomento. Caso não haja, informar que NÃO houve financiamento. on 2018-06-15T19:18:26Z (GMT)
Submitted by Fernando Anglada (fangladalores@gmail.com) on 2018-06-16T01:00:21Z No. of bitstreams: 3 Doc Mestrado-Fernando Anglada Lores.pdf: 1344067 bytes, checksum: abcd47d0b52a4a7d1dfc4c35a8bb9fb8 (MD5) 303 Folha de Aprovação - Fernando Anglada (Digitalizada).pdf: 322777 bytes, checksum: 0d92c3a2022fc03865c512191ef847c5 (MD5) 303 ATA de Defesa - Fernando Anglada (Digitalizada).pdf: 427295 bytes, checksum: 679e8a5a5bb29d93ea4432599571facb (MD5)
Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-06-18T17:54:25Z (GMT) No. of bitstreams: 3 Doc Mestrado-Fernando Anglada Lores.pdf: 1344067 bytes, checksum: abcd47d0b52a4a7d1dfc4c35a8bb9fb8 (MD5) 303 Folha de Aprovação - Fernando Anglada (Digitalizada).pdf: 322777 bytes, checksum: 0d92c3a2022fc03865c512191ef847c5 (MD5) 303 ATA de Defesa - Fernando Anglada (Digitalizada).pdf: 427295 bytes, checksum: 679e8a5a5bb29d93ea4432599571facb (MD5)
Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-06-18T17:56:02Z (GMT) No. of bitstreams: 3 Doc Mestrado-Fernando Anglada Lores.pdf: 1344067 bytes, checksum: abcd47d0b52a4a7d1dfc4c35a8bb9fb8 (MD5) 303 Folha de Aprovação - Fernando Anglada (Digitalizada).pdf: 322777 bytes, checksum: 0d92c3a2022fc03865c512191ef847c5 (MD5) 303 ATA de Defesa - Fernando Anglada (Digitalizada).pdf: 427295 bytes, checksum: 679e8a5a5bb29d93ea4432599571facb (MD5)
Made available in DSpace on 2018-06-18T17:56:02Z (GMT). No. of bitstreams: 3 Doc Mestrado-Fernando Anglada Lores.pdf: 1344067 bytes, checksum: abcd47d0b52a4a7d1dfc4c35a8bb9fb8 (MD5) 303 Folha de Aprovação - Fernando Anglada (Digitalizada).pdf: 322777 bytes, checksum: 0d92c3a2022fc03865c512191ef847c5 (MD5) 303 ATA de Defesa - Fernando Anglada (Digitalizada).pdf: 427295 bytes, checksum: 679e8a5a5bb29d93ea4432599571facb (MD5) Previous issue date: 2018-04-09
.
Eye-based typing systems need to recognize the words typed by the users interpreting their eye movements on an onscreen virtual keyboard. This process can be modeled as the transmission of words through a noisy channel. Thus, recognizing a word consists on selecting from a dictionary the words which are most similar to a distorted word (the typed word) that was received using a noisy channel. To accomplish this, the system selects the set of words which can be transformed into the typed one using until k character edit operations. These operations are weighted according to the knowledge about noise sources and error distributions observed in the eye typing scenario. To get these estimates can be hardly viable for large dictionaries and very noisy scenarios. In this work, we address this problem by proposing efficient methods to estimate edit distance using Mor-Fraenkel indices combined with a minimum perfect hashing. These methods allow the early processing of promising candidates enabling faster and better word recognition.
Em sistemas de digitação com os olhos é necessário reconhecer as palavras que o usuário deseja digitar a partir dos movimentos que seus olhos fazem em um teclado virtual. Este processo pode ser visto como a transmissão de palavras através de um canal ruidoso. Assim, a tarefa de reconhecimento consiste em determinar com que palavras de um léxico se parece mais uma palavra distorcida ao passar por um canal ruidoso. Para isso são selecionadas um conjunto de palavras que possam ser transformadas na palavra de entrada mediante k operações de edição de caracteres, utilizando estimativas que envolvem o conhecimento de domínio sobre fontes de ruído e distribuições de erros para classificar os possíveis candidatos. Tais estimativas podem se tornar inviáveis dependendo do tamanho do léxico e da quantidade de ruído no cenário de interesse. Neste trabalho, atacamos este problema propondo métodos eficientes de cálculo de distância de edição usando índices de Mor-Fraenkel combinados com um hashing perfeito mínimo. Estes métodos permitem o processamento precoce da maioria dos candidatos promissores, avaliando a mínima quantidade de operações a serem feitas no processo de pesquisa, e proporcionando maior rapidez e melhor qualidade no reconhecimento de palavras.
Polastri, Paulo César. "Aprendizado sem-fim de paráfrases." Universidade Federal de São Carlos, 2016. https://repositorio.ufscar.br/handle/ufscar/7868.
Full textApproved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-14T14:13:08Z (GMT) No. of bitstreams: 1 DissPCP.pdf: 1921482 bytes, checksum: 5298cc1a066e0cfe217b2b9c61076e65 (MD5)
Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-14T14:13:18Z (GMT) No. of bitstreams: 1 DissPCP.pdf: 1921482 bytes, checksum: 5298cc1a066e0cfe217b2b9c61076e65 (MD5)
Made available in DSpace on 2016-10-14T14:13:28Z (GMT). No. of bitstreams: 1 DissPCP.pdf: 1921482 bytes, checksum: 5298cc1a066e0cfe217b2b9c61076e65 (MD5) Previous issue date: 2016-03-04
Não recebi financiamento
Use different words to express/convey the same message is a necessity in any natural language and, as such, should be investigated in research in Natural Language Processing (NLP). When it is just a simple word, we say that the interchangeable words are synonyms; while the term paraphrase is used to express a more general idea and that also may involve more than one word. For example, the sentences "the light is red" and "the light is closed" are examples of paraphrases as "sign" and "traffic light" represent synonymous in this context. Proper treatment of paraphrasing is important in several NLP applications, such as Machine Translation, which paraphrases can be used to increase the coverage of Statistical Machine Translation systems; on Multidocument Summarization, where paraphrases identification allows the recognition of repeated information; and Natural Language Generation, where the generation of paraphrases allows creating more varied and fluent texts. The project described in this document is intended to verify that is possible to learn, in an incremental and automatic way, paraphrases in words level from a bilingual parallel corpus, using Never-Ending Machine Learning (NEML) strategy and the Internet as a source of knowledge. The NEML is a machine learning strategy, based on how humans learn: what is learned previously can be used to learn new information and perhaps more complex in the future. Thus, the NEML has been applied together with the strategy for paraphrases extraction proposed by Bannard and Callison-Burch (2005) where, from bilingual parallel corpus, paraphrases are extracted using a pivot language. In this context, it was developed NEPaL (Never-Ending Paraphrase Learner) AMSF system responsible for: (1) extract the internet texts, (2) align the text using a pivot language, (3) rank the candidates according to a classification model and (4) use the knowledge to produce a new classifier model and therefore gain more knowledge restarting the never-ending learning cycle.
Usar palavras diferentes para expressar/transmitir a mesma mensagem é uma necessidade em qualquer língua natural e, como tal, deve ser investigada nas pesquisas em Processamento de Língua Natural (PLN). Quando se trata apenas de uma palavra simples, dizemos que as palavras intercambiáveis são sinônimos; enquanto o termo paráfrase é utilizado para expressar uma ideia mais geral e que pode envolver também mais de uma palavra. Por exemplo, as sentenças “o sinal está vermelho” e “o semáforo está fechado” são exemplo de paráfrases enquanto “sinal” e “semáforo” representam sinônimos, nesse contexto. O tratamento adequado de paráfrases é importante em diversas aplicações de PLN, como na Tradução Automática, onde paráfrases podem ser utilizadas para aumentar a cobertura de sistemas de Tradução Automática Estatística; na Sumarização Multidocumento, onde a identificação de paráfrases permite o reconhecimento de informações repetidas; e na Geração de Língua Natural, onde a geração de paráfrases permite criar textos mais variados e fluentes. O projeto descrito neste documento visa verificar se é possível aprender, de modo incremental e automático, paráfrases em nível de palavras a partir de corpus paralelo bilíngue, utilizando a estratégia de Aprendizado de Máquina Sem-fim (AMSF) e a Internet como fonte de conhecimento. O AMSF é uma estratégia de Aprendizado de Máquina, baseada na forma como os humanos aprendem: o que é aprendido previamente pode ser utilizado para aprender informações novas e talvez mais complexas, futuramente. Para tanto, o AMSF foi aplicado juntamente com a estratégia para a extração de paráfrases proposta por Bannard e Callison-Burch (2005) onde, a partir de corpus paralelo bilíngue, paráfrases são extraídas utilizando um idioma pivô. Nesse contexto, foi desenvolvido o NEPaL (Never-Ending Paraphrase Learner), sistema de AMSF responsável por: (1) extrair textos da internet, (2) alinhar os textos utilizando um idioma pivô, (3) classificar as candidatas de acordo com um modelo de classificação e (4) utilizar o conhecimento para produzir um novo modelo classificador e, consequentemente, adquirir mais conhecimento reiniciando o ciclo de aprendizado sem-fim.