To see the other types of publications on this topic, follow the link: Lengua y lógica.

Dissertations / Theses on the topic 'Lengua y lógica'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 19 dissertations / theses for your research on the topic 'Lengua y lógica.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rodrich, Kovach Fiorella Stana. "Lenguaje, lógica y mundo : las fuentes del sentido en el Tractatus lógico philosophicus." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2008. https://hdl.handle.net/20.500.12672/2914.

Full text
Abstract:
El Tractatus Logico Philosophicus fue escrito por Ludwig Wittgenstein antes de cumplir los treinta años y salió a la luz en 1921, en los “Annalen der Naturphilosophie”, XIV, 3-4, p. 185 - 262. En 1922 fue publicado en inglés, acompañado por la introducción que escribiera Bertrand Russell. Se trata de un texto que contiene breves aforismos presentados con una sorprendente mezcla de precisión lógica y vaguedad poética. Con ese estilo, en una extensión de 80 páginas expone todas las ideas de lo que luego será considerado la filosofía de su primera etapa o “Primer Wittgenstein”.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
2

Vega, Suero Catherine Bethzabe. "Mayor ostensividad del aspecto verbal en algunos avisos publicitarios impresos en lengua española." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7932.

Full text
Abstract:
Reconoce y describe porqué en los textos publicitarios de algunos avisos impresos es el aspecto verbal (proposiciones) más ostensivo que las imágenes. Asimismo, explica la capacidad ostensiva que puede tener el aspecto verbal (proposiciones), dentro de un aviso publicitario, la cual permite focalizar y retener la atención del potencial cliente, así como ser estímulo directo para la activación del proceso de inferencia sin necesidad de utilizar muchas imágenes. En cuanto a la metodología de investigación es de tipo descriptivo. Utiliza un corpus conformado por 10 avisos publicitarios, nueve de ellos fueron extraídos de la revista Somos y uno de un panel difundido en una céntrica avenida de la ciudad de Lima. Tanto los anuncios de la revista como el del panel fueron publicados entre los años 2007 y 2015. Respecto al procedimiento del análisis, se explica las funciones lingüísticas que cumplen las categorías léxicas y gramaticales dentro de una proposición, se describe cómo intervienen los niveles léxico-semántico y morfológicos en la creación de nuevos términos o neologismo, así como las figuras retóricas que contiene cada proposición (si es que las contiene), se reconoce a los lexemas ostensivos y se explica cómo estos operan y cómo son dirigidos por el Principio de Relevancia.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
3

CÁRDENAS, GIL ROMÁN. "CONOCIMIENTO Y REALIDAD EN LOS TEXTOS LÓGICOS DE BERTRAND RUSSELL." Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2018. http://hdl.handle.net/20.500.11799/95435.

Full text
Abstract:
El presente texto intenta mostrar la trasformación de la filosofía ruselliana, en especial la referente a los conceptos de realidad y conocimiento, a través de su obra lógica. El logicismo russelliano estaba fundamentado en una filosofía que les daba un status ontológico y epistemológico a los conceptos de la lógica. No obstante, a raíz del descubrimiento de una paradoja en la teoría de conjuntos el logicismo se tuvo que modificar y, por lo tanto, también la filosofía que lo sustentaba, dando origen al atomismo lógico. La paradoja Russell (llamada así por el autor que la descubrió) trastocó los cimientos del logicismo. Los medios que utilizó Bertrand Russell para solucionarla y, a su vez, salvar el logicismo fueron una serie de pautas lógicas que terminaron por modificar tanto a la lógica misma, como a la filosofía que le sustentaba. Esta nueva filosofía, distinta a la primera, pasa por un proceso denominado análisis lógico, el cual, a groso modo, indica que todo aquello que sea objeto de estudio filosófico o científico, debe pasar primero una serie de inspecciones lógicas. Dicha inspección es inevitablemente lingüística, es decir, el análisis lógico es un análisis del lenguaje. En este sentido, parte de la nueva filosofía russelliana es también una filosofía del lenguaje.
APA, Harvard, Vancouver, ISO, and other styles
4

Rodríguez, Cárdenas Frank Edson. "La Vaguedad: ¿Problema lógico o epistémico?" Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/3635.

Full text
Abstract:
¿Cuántos cabellos debe perder alguien para ser calvo? Ensáyese cualquier respuesta y, gracias al principio de inducción matemática, seremos objeto de una inmediata y legítima objeción. Revelamos, sin embargo, una manifiesta competencia pragmática en el reconocimiento de individuos calvos. No sabemos qué condiciones se debe satisfacer para ser calvo, pero sabemos quiénes son calvos y quiénes no. Estamos frente al fenómeno de la vaguedad y éste permea nuestro lenguaje. No se trata únicamente de propiedades ordinarias como la de ser calvo, está en juego también la precisión de conceptos empleados por el derecho y las ciencias empíricas. Lo que debe decidirse es si la imprecisión de la que adolecen ciertos conceptos es algo que les es intrínseco: ¿son o no irreversiblemente difusos? Es posible que, desde un punto de vista despreocupado y escéptico, muchos se pregunten qué importa que ciertas expresiones carezcan de precisión. No obstante los conceptos vagos y las paradojas sorites a las que estos dan lugar, el lenguaje permite que nos comuniquemos y entender lo que otros quieren decir. ¿Por qué, entonces, ver en ello un problema y tomar como objeto de estudio a la vaguedad? Ésta parece no tener nada de malo, al menos, no revela ninguna consecuencia perniciosa. Es un hecho: el lenguaje funciona. Repárese, sin embargo, en algo sumamente inquietante. Comunicarnos y entender las cosas por medio de conceptos vagos muestra que la relación de coherencia y de precisión en un lenguaje es deficiente y a la vez cuestiona la idea de que podemos representar la realidad con coherencia. Habrá quienes digan que sólo hace falta el sentido común para tener un buen guía cuando se requiera utilizar expresiones vagas. Esta posición no termina de satisfacernos. Pues es legítimo preguntar si el sentido común es útil en la medida en que tratamos de obtener una comprensión más clara de lo que es la vaguedad y la forma de hacer frente a expresiones que nos resulten vagas (o imprecisas). Dicho en otras palabras: el sentido común me puede ayudar a emplear expresiones vagas, pero no me brinda una noción de vaguedad. La vaguedad no sólo es crucial para nuestra comprensión de la forma en que representamos la realidad, sino también de lo que es la realidad, independientemente de nuestras formas de representarla. Es más, la vaguedad no es un tema que atañe sólo a los conceptos del lenguaje natural. En efecto, si uno quiere entender o generar un lenguaje, la clave está en comprender y llegar a dar respuesta a qué es la vaguedad. Sin duda, su estudio es importante. Ha originado el desarrollo de numerosas lógicas no clásicas y es uno de los temas centrales en la filosofía analítica contemporánea en sus diferentes áreas, como filosofía del lenguaje, filosofía de la lógica y teoría del conocimiento. El estudio de la vaguedad es, además, de carácter multidisciplinario. En él intervienen disciplinas como la matemática, la pragmática, la lingüística y el derecho, entre otras. La vaguedad es un fenómeno latente tanto en los conceptos ordinarios y científicos. Es decir, vemos a la vaguedad como un problema perenne en el lenguaje, de modo que, como lo diría Russell (1923), “todo concepto es vago en un grado del que no somos conscientes hasta que intentamos precisarlo.” (p. 87) ¿Cómo dar una respuesta satisfactoria al problema de la vaguedad? ¿La vaguedad es un problema que debe ser abordado y desarrollado por la lógica o es un problema que debe abordarse desde una perspectiva epistémica? Analizaré ambos enfoques, tanto la teoría lógica de la vaguedad como la teoría epistémica de la vaguedad. Mi objeto es determinar cuál es el mejor planteamiento. Parto de la hipótesis de que la vaguedad es un problema lógico y considero que, hacia el final del trabajo, esto se ve corroborado.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
5

Jaque, Hidalgo Matías. "Tiempo y lenguaje: restricciones cognitivo-fenomenológicas en la evolución de las formas de futuro." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/110923.

Full text
Abstract:
Tesis para optar al grado de Magíster en Estudios Cognitivos
Facultad de Filosofía y Humanidades
En esta tesis se propone que la formación y evolución de los exponentes de futuro en las distintas lenguas está motivada por la interacción de dos formas de la cognición temporal. La primera de ellas se denomina tiempo fenomenológico, y se refiere a la experiencia directa del presente vivido (cf. Husserl 1905, Varela 1995). La segunda, derivada a partir de la primera, se denomina tiempo simbólico, y se relaciona con la capacidad de localizar intervalos en un tiempo considerado homogéneo (cf. Wearden 2008). Proponemos que las formas aspectuales y modales son más sensibles al primer tipo de temporalidad, pero se desarrollan, con el tiempo, como exponentes de tiempo simbólico. Así, puede darse cuenta de casos como la evolución del latín cantare habeo al español cantaré, o la actual sustitución de esta forma sintética por una forma en principio aspectual (voy a cantar).
APA, Harvard, Vancouver, ISO, and other styles
6

Núñez, Grandón Tanya. "El conocimiento de mundo como facilitador para la generación de inferencias: análisis comparativo de preguntas de inferencia aplicadas en las pruebas PSU Lenguaje y Comunicación y PISA Lectura." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/132678.

Full text
Abstract:
Tesis para optar al grado de Magíster en Estudios Cognitivos
Autor no autoriza el acceso a texto completo de su documento.
La presente tesis tiene como objetivo principal analizar y comparar las preguntas de inferencia de las pruebas estandarizadas PSU Lenguaje y Comunicación 2010, 2010 y 2011 y PISA Lectura 2009. Este objetivo se plantea con el fin de dilucidar las estrategias cognitivas que subyacen en las pruebas y que permiten responder preguntas de inferencia, tomando como factor incidente en su construcción el conocimiento de mundo. Este análisis comparativo se hará sobre la base de las teorías acerca de la construcción de modelos representacionales de un discurso, de acuerdo a la teoría de Modelos Mentales de Jonhson 􀂱 Laird, el modelo situacional propuesto por van Dijk y Kinstch y el modelo construcción 􀂱 integración de Kintsch, los que se complementarás con la propuesta de modelo de contexto de van Dijk y modelo del experienciador inmerso de Zwaan. El análisis, además, tendrá como sustento teórico distintos estudios acerca del procesamiento cognitivo del lenguaje, la generación de inferencias y la incidencia del conocimiento de mundo en la construcción de estas, basado principalmente en las teorías planteadas por los investigadores Graesser, Gernsbacher y Zwaan al respecto. La base teórica mencionada conduce a reportar información respecto al conocimiento de mundo como factor clave para la generación de inferencias, en pos de una comprensión confiable y eficaz del discurso. El análisis de las preguntas permitirá identificar cuáles elementos propuestos por los teóricos mencionados resultan relevantes para cada prueba estandarizada a analizar y cómo estos se relacionan con la construcción de la representación del discurso. De esta forma, la investigación pretende evidenciar el rol del conocimiento y su incidencia en las estrategias cognitivas que los estudiantes deben realizar al leer un discurso, con el fin de lograr una comprensión profunda y efectiva, de acuerdo a los objetivos de las tareas dadas en preguntas de inferencias en las pruebas estandarizadas mencionadas.
APA, Harvard, Vancouver, ISO, and other styles
7

Trivelli, Avila Carlo. "Fenomenología del lenguaje y el mundo de la vida." Pontificia Universidad Católica del Perú, 2012. http://repositorio.pucp.edu.pe/index/handle/123456789/119560.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Valencia, G. Omar. "Un intento de solución a la paradoja del mentiroso: algunos aportes desde la fenomenología." Pontificia Universidad Católica del Perú, 2012. http://repositorio.pucp.edu.pe/index/handle/123456789/119255.

Full text
Abstract:
La paradoja del mentiroso lleva siglos atormentando la mente de filósofos y  lógicos. El presente texto intenta una solución siguiendo la siguiente tesis: la  paradoja no puede ser resuelta por la lógica dado que lo implicado en ella  trasciende las fronteras de esa disciplina. Lo que trasciende estas fronteras  (establecidas en gran medida por Frege, en tanto padre de la lógica moderna) es el propio ser humano como ser capaz de articular sentido. De ahí la  necesidad de explorar cómo la fenomenología aborda al ser humano para reconcebir también al lenguaje y al tiempo. Este giro será crucial para entender por qué el problema de dicha paradoja es la autorreferencialidad, lo que  también conlleva a reinterpretar qué se entiende por niveles de lenguaje (sea  en la forma de Tarski o de Kripke).
APA, Harvard, Vancouver, ISO, and other styles
9

Schopf, Olea Demian. "Máquinas de coser : máquinas lógicas, autómatas poéticos y lenguaje natural en las artes mediales contemporáneas." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/134334.

Full text
Abstract:
Magíster en artes con mención en artes visuales
El objeto de esta tesis son dos obras de arte que generan textos de modo mecánico. Se trata de Poetry Machine (2001) del escritor, filósofo, programador y artista alemán David Link (1971), y de Máquina de Coser (2009), obra de mi propia autoría. El propósito de este trabajo es contextualizar ambos trabajos en una generalidad mayor, dada, primeramente, por un género: la generación algorítmica de textos y la concepción de los respectivos mecanismos generativos. De esta manera, la tesis intenta poner en relación tres cuestiones elementales: máquinas lógicas (más bien simples), autómatas escritores –o ‘poéticos’, si así se quiere– y lenguaje natural. En ese espíritu, la introducción constituye un esbozo de toda la tesis y una descripción abreviada de la misma. El primer capítulo es una pequeña introducción a la historia de los generadores de texto desde la aparición de los primeros computadores electrónicos. Ese capítulo se concentra, principalmente, en sistemas de combinaciones basados en elementos predefinidos. El segundo capítulo examina un experimento de Inteligencia Artificial –ELIZA (1966)–, que conjuga elementos predefinidos con variables exógenas. Ese análisis se basa –en gran parte– en un examen efectuado a dicho programa por David Link en su libro Poesiemaschinen / Maschinenpoesie. Las figuras utilizadas en esa explicación –al igual que las que explican la aplicación Romance Writer (1977) en el I capítulo– provienen de ese libro. Igualmente, se examina, en ese capítulo, la obra Máquina Cóndor (2006) –también de mi autoría–, y la implementación de un procedimiento, que cita a la obra Bartleby el escribiente (1853) de Herman Melville –(1819-1891)–, en Máquina de Coser. El tercer capítulo esboza algunas reflexiones sobre la Poetry Machine, intentando conjugar su afán de novedad con algunos pensamientos de Peter Bürger (1936) en su Teoría de la Vanguardia (1974) y de Theodor W. Adorno (1903-1969) en su Teoría Estética (1970), que recién se terminan de constituir en la conclusión. El cuarto capítulo es una exposición de una comparación entre la Máquina Universal de Turing (1936), de Alan M. Turing (1912-1954) y los conceptos de devenir, existencia, ser y nada en la Ciencia de la Lógica (1816), de Georg Wilhelm Friedrich Hegel (1770-1831). El autor de ese cotejo es, también, David Link. Mi aporte consiste en vincular dicho cotejo con un argumento de John Searle (1932) –The Chinese Room (1980)– acerca de la imposibilidad de comprensión de lenguaje en una máquina, y en plantear, desde ahí, otro experimento mental de mi propia autoría. En el quinto capítulo se esboza un prototipo de lenguaje primitivo y su relación con la noción de algoritmo, principalmente a partir de algunas consideraciones de Umberto Eco (1932) en su Tratado General de Semiótica (1976) y un ejemplo dado por Ludwig Wittgenstein (1889-1951) al comienzo de sus Investigaciones Filosóficas (1958). Ese capítulo termina con una proposición acerca de la noción de physical computing –invertida en computing the physical– encarnada en un máquina musical programable proveniente del mundo musulmán del Siglo IX, y la posible materialización de tal concepto en una obra imaginaria del Siglo XXI. En el sexto capítulo se exponen, con más detalle, algunas reflexiones del mismo Wittgenstein sobre la forma lógica del lenguaje en relación al lenguaje natural, y los abismos que separan lo lógicamente perfecto y el lenguaje natural. El séptimo capítulo examina la crítica de Saul A. Kripke (1940) a lo que llama teoría de cúmulos de descripciones definidas (con el propósito de comprender mejor los dos objetos de la tesis). La conclusión intenta conjugar lo esbozado en esos siete capítulos a la luz de las reflexiones de Jean-François Lyotard (1924-1998) sobre la categoría estética de lo sublime y su relación con la vanguardia y con la posmodernidad. Esta conjugación final se encamina hacia una mejor comprensión de las dos obras en debate. Se adjuntan las fichas técnicas de Poetry Machine y Máquina de Coser en un anexo. Se recomienda leerlas para una comprensión más cabal de toda la tesis. Lo mismo rige para las notas al pie de página, que durante todo el texto –pero especialmente en el II capítulo, la conclusión y en la ficha técnica de Máquina de Coser– y, en ocasiones, también en el III y IV capítulo, constituyen un escrito paralelo que se acopla al texto principal. Sin dicho engranaje, en esas partes, el texto principal resulta incomprensible. Insoslayable –redundante incluso– agregar que esta tesis carece de pretensiones epistemológicas –o de la intención de ser un estudio doctoral que aporte algo de manera consistente a la filosofía analítica–. Es una tesis en filosofía con mención en estética y teoría del arte; y ante todo es un texto de artista. Así quisiera que fuera leída
APA, Harvard, Vancouver, ISO, and other styles
10

Tuzov, Ilya. "Dependability-driven Strategies to Improve the Design and Verification of Safety-Critical HDL-based Embedded Systems." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/159883.

Full text
Abstract:
[ES] La utilización de sistemas empotrados en cada vez más ámbitos de aplicación está llevando a que su diseño deba enfrentarse a mayores requisitos de rendimiento, consumo de energía y área (PPA). Asimismo, su utilización en aplicaciones críticas provoca que deban cumplir con estrictos requisitos de confiabilidad para garantizar su correcto funcionamiento durante períodos prolongados de tiempo. En particular, el uso de dispositivos lógicos programables de tipo FPGA es un gran desafío desde la perspectiva de la confiabilidad, ya que estos dispositivos son muy sensibles a la radiación. Por todo ello, la confiabilidad debe considerarse como uno de los criterios principales para la toma de decisiones a lo largo del todo flujo de diseño, que debe complementarse con diversos procesos que permitan alcanzar estrictos requisitos de confiabilidad. Primero, la evaluación de la robustez del diseño permite identificar sus puntos débiles, guiando así la definición de mecanismos de tolerancia a fallos. Segundo, la eficacia de los mecanismos definidos debe validarse experimentalmente. Tercero, la evaluación comparativa de la confiabilidad permite a los diseñadores seleccionar los componentes prediseñados (IP), las tecnologías de implementación y las herramientas de diseño (EDA) más adecuadas desde la perspectiva de la confiabilidad. Por último, la exploración del espacio de diseño (DSE) permite configurar de manera óptima los componentes y las herramientas seleccionados, mejorando así la confiabilidad y las métricas PPA de la implementación resultante. Todos los procesos anteriormente mencionados se basan en técnicas de inyección de fallos para evaluar la robustez del sistema diseñado. A pesar de que existe una amplia variedad de técnicas de inyección de fallos, varias problemas aún deben abordarse para cubrir las necesidades planteadas en el flujo de diseño. Aquellas soluciones basadas en simulación (SBFI) deben adaptarse a los modelos de nivel de implementación, teniendo en cuenta la arquitectura de los diversos componentes de la tecnología utilizada. Las técnicas de inyección de fallos basadas en FPGAs (FFI) deben abordar problemas relacionados con la granularidad del análisis para poder localizar los puntos débiles del diseño. Otro desafío es la reducción del coste temporal de los experimentos de inyección de fallos. Debido a la alta complejidad de los diseños actuales, el tiempo experimental dedicado a la evaluación de la confiabilidad puede ser excesivo incluso en aquellos escenarios más simples, mientras que puede ser inviable en aquellos procesos relacionados con la evaluación de múltiples configuraciones alternativas del diseño. Por último, estos procesos orientados a la confiabilidad carecen de un soporte instrumental que permita cubrir el flujo de diseño con toda su variedad de lenguajes de descripción de hardware, tecnologías de implementación y herramientas de diseño. Esta tesis aborda los retos anteriormente mencionados con el fin de integrar, de manera eficaz, estos procesos orientados a la confiabilidad en el flujo de diseño. Primeramente, se proponen nuevos métodos de inyección de fallos que permiten una evaluación de la confiabilidad, precisa y detallada, en diferentes niveles del flujo de diseño. Segundo, se definen nuevas técnicas para la aceleración de los experimentos de inyección que mejoran su coste temporal. Tercero, se define dos estrategias DSE que permiten configurar de manera óptima (desde la perspectiva de la confiabilidad) los componentes IP y las herramientas EDA, con un coste experimental mínimo. Cuarto, se propone un kit de herramientas que automatiza e incorpora con eficacia los procesos orientados a la confiabilidad en el flujo de diseño semicustom. Finalmente, se demuestra la utilidad y eficacia de las propuestas mediante un caso de estudio en el que se implementan tres procesadores empotrados en un FPGA de Xilinx serie 7.
[CA] La utilització de sistemes encastats en cada vegada més àmbits d'aplicació està portant al fet que el seu disseny haja d'enfrontar-se a majors requisits de rendiment, consum d'energia i àrea (PPA). Així mateix, la seua utilització en aplicacions crítiques provoca que hagen de complir amb estrictes requisits de confiabilitat per a garantir el seu correcte funcionament durant períodes prolongats de temps. En particular, l'ús de dispositius lògics programables de tipus FPGA és un gran desafiament des de la perspectiva de la confiabilitat, ja que aquests dispositius són molt sensibles a la radiació. Per tot això, la confiabilitat ha de considerar-se com un dels criteris principals per a la presa de decisions al llarg del tot flux de disseny, que ha de complementar-se amb diversos processos que permeten aconseguir estrictes requisits de confiabilitat. Primer, l'avaluació de la robustesa del disseny permet identificar els seus punts febles, guiant així la definició de mecanismes de tolerància a fallades. Segon, l'eficàcia dels mecanismes definits ha de validar-se experimentalment. Tercer, l'avaluació comparativa de la confiabilitat permet als dissenyadors seleccionar els components predissenyats (IP), les tecnologies d'implementació i les eines de disseny (EDA) més adequades des de la perspectiva de la confiabilitat. Finalment, l'exploració de l'espai de disseny (DSE) permet configurar de manera òptima els components i les eines seleccionats, millorant així la confiabilitat i les mètriques PPA de la implementació resultant. Tots els processos anteriorment esmentats es basen en tècniques d'injecció de fallades per a poder avaluar la robustesa del sistema dissenyat. A pesar que existeix una àmplia varietat de tècniques d'injecció de fallades, diverses problemes encara han d'abordar-se per a cobrir les necessitats plantejades en el flux de disseny. Aquelles solucions basades en simulació (SBFI) han d'adaptar-se als models de nivell d'implementació, tenint en compte l'arquitectura dels diversos components de la tecnologia utilitzada. Les tècniques d'injecció de fallades basades en FPGAs (FFI) han d'abordar problemes relacionats amb la granularitat de l'anàlisi per a poder localitzar els punts febles del disseny. Un altre desafiament és la reducció del cost temporal dels experiments d'injecció de fallades. A causa de l'alta complexitat dels dissenys actuals, el temps experimental dedicat a l'avaluació de la confiabilitat pot ser excessiu fins i tot en aquells escenaris més simples, mentre que pot ser inviable en aquells processos relacionats amb l'avaluació de múltiples configuracions alternatives del disseny. Finalment, aquests processos orientats a la confiabilitat manquen d'un suport instrumental que permeta cobrir el flux de disseny amb tota la seua varietat de llenguatges de descripció de maquinari, tecnologies d'implementació i eines de disseny. Aquesta tesi aborda els reptes anteriorment esmentats amb la finalitat d'integrar, de manera eficaç, aquests processos orientats a la confiabilitat en el flux de disseny. Primerament, es proposen nous mètodes d'injecció de fallades que permeten una avaluació de la confiabilitat, precisa i detallada, en diferents nivells del flux de disseny. Segon, es defineixen noves tècniques per a l'acceleració dels experiments d'injecció que milloren el seu cost temporal. Tercer, es defineix dues estratègies DSE que permeten configurar de manera òptima (des de la perspectiva de la confiabilitat) els components IP i les eines EDA, amb un cost experimental mínim. Quart, es proposa un kit d'eines (DAVOS) que automatitza i incorpora amb eficàcia els processos orientats a la confiabilitat en el flux de disseny semicustom. Finalment, es demostra la utilitat i eficàcia de les propostes mitjançant un cas d'estudi en el qual s'implementen tres processadors encastats en un FPGA de Xilinx serie 7.
[EN] Embedded systems are steadily extending their application areas, dealing with increasing requirements in performance, power consumption, and area (PPA). Whenever embedded systems are used in safety-critical applications, they must also meet rigorous dependability requirements to guarantee their correct operation during an extended period of time. Meeting these requirements is especially challenging for those systems that are based on Field Programmable Gate Arrays (FPGAs), since they are very susceptible to Single Event Upsets. This leads to increased dependability threats, especially in harsh environments. In such a way, dependability should be considered as one of the primary criteria for decision making throughout the whole design flow, which should be complemented by several dependability-driven processes. First, dependability assessment quantifies the robustness of hardware designs against faults and identifies their weak points. Second, dependability-driven verification ensures the correctness and efficiency of fault mitigation mechanisms. Third, dependability benchmarking allows designers to select (from a dependability perspective) the most suitable IP cores, implementation technologies, and electronic design automation (EDA) tools. Finally, dependability-aware design space exploration (DSE) allows to optimally configure the selected IP cores and EDA tools to improve as much as possible the dependability and PPA features of resulting implementations. The aforementioned processes rely on fault injection testing to quantify the robustness of the designed systems. Despite nowadays there exists a wide variety of fault injection solutions, several important problems still should be addressed to better cover the needs of a dependability-driven design flow. In particular, simulation-based fault injection (SBFI) should be adapted to implementation-level HDL models to take into account the architecture of diverse logic primitives, while keeping the injection procedures generic and low-intrusive. Likewise, the granularity of FPGA-based fault injection (FFI) should be refined to the enable accurate identification of weak points in FPGA-based designs. Another important challenge, that dependability-driven processes face in practice, is the reduction of SBFI and FFI experimental effort. The high complexity of modern designs raises the experimental effort beyond the available time budgets, even in simple dependability assessment scenarios, and it becomes prohibitive in presence of alternative design configurations. Finally, dependability-driven processes lack an instrumental support covering the semicustom design flow in all its variety of description languages, implementation technologies, and EDA tools. Existing fault injection tools only partially cover the individual stages of the design flow, being usually specific to a particular design representation level and implementation technology. This work addresses the aforementioned challenges by efficiently integrating dependability-driven processes into the design flow. First, it proposes new SBFI and FFI approaches that enable an accurate and detailed dependability assessment at different levels of the design flow. Second, it improves the performance of dependability-driven processes by defining new techniques for accelerating SBFI and FFI experiments. Third, it defines two DSE strategies that enable the optimal dependability-aware tuning of IP cores and EDA tools, while reducing as much as possible the robustness evaluation effort. Fourth, it proposes a new toolkit (DAVOS) that automates and seamlessly integrates the aforementioned dependability-driven processes into the semicustom design flow. Finally, it illustrates the usefulness and efficiency of these proposals through a case study consisting of three soft-core embedded processors implemented on a Xilinx 7-series SoC FPGA.
Tuzov, I. (2020). Dependability-driven Strategies to Improve the Design and Verification of Safety-Critical HDL-based Embedded Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/159883
TESIS
APA, Harvard, Vancouver, ISO, and other styles
11

Watanabe, Kanno Cynthia Lidia. "Diseño de la transformada rápida de Fourier con algoritmo Split-Radix en FPGA." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2009. http://tesis.pucp.edu.pe/repositorio/handle/123456789/295.

Full text
Abstract:
La Transformada Rápida de Fourier SplitRadix (SRFFT) es un algoritmo computacionalmente eficiente que se utiliza para calcular la Transformada Discreta de Fourier (DFT), la cual a partir de una secuencia finita de datos, obtiene otra que describe su comportamiento en el dominio de la frecuencia. Esta herramienta se utiliza en óptica, acústica, física cuántica, teorías de sistemas, tratamiento de señales, reconocimiento de voz, entre otros.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
12

Mendes, Amanda dos Santos. "Gráficos de controle fuzzy para o monitoramento da média e amplitude de processos univariados /." Guaratinguetá, 2019. http://hdl.handle.net/11449/180937.

Full text
Abstract:
Orientador: Marcela Aparecida Guerreiro Machado Freitas
Resumo: O controle de qualidade, principalmente por meio do uso de gráficos de controle, torna-se essencial na indústria para garantir um processo livre de causas especiais de variabilidade. Como os dados amostrais podem incluir incertezas advindas da subjetividade humana e dos sistemas de medição, a teoria dos conjuntos fuzzy pode ser aplicada aos gráficos de controle quando dados precisos não estiverem disponíveis. Para tal feito, os valores da característica de qualidade são fuzzificados a partir da inserção de incertezas e transformados em valores representativos para uma melhor comparação com o gráfico de controle tradicional. Este trabalho propõe o uso da lógica fuzzy aos gráficos de controle para monitorar a média e a amplitude de processos univariados, assim como dois gráficos de controle fuzzy baseados nas regras especiais de decisão: Synthetic e Side Sensitive Synthetic. O desempenho do gráfico de controle é medido pelo número médio de amostras até sinal (NMA). Verificou-se neste trabalho que os gráficos de controle fuzzy possuem maior eficiência que os gráficos de controle tradicionais para menores valores de α-cut, ou seja, maior incerteza inserida no processo e para cenários onde se tem uma maior diferença entre os limitantes de incerteza dos números fuzzy.
Abstract: Quality control, mainly through the use of control charts, becomes essential in the industry to ensure a process free from special causes of variability. As sample data may include uncertainties arising from human subjectivity and measurement systems, fuzzy set theory can be applied to control charts when accurate data is not available. For this purpose, the quality characteristic values are fuzzified from the insertion of uncertainties and transformed into representative values for a better comparison with the traditional control chart. This work proposes the use of fuzzy logic to control charts to monitor the mean and range of univariate processes, as well as two fuzzy control charts based on the special run rules: Synthetic and Side Sensitive Syntehtic. The performance of the control chart is measured by the average run length (ARL). It was verified in this work that the fuzzy control charts have higher efficiency than the traditional control charts for lower values of α-cut, that is, greater uncertainty inserted in the process and for scenarios where there is a greater difference between the limiting uncertainties of fuzzy numbers.
Mestre
APA, Harvard, Vancouver, ISO, and other styles
13

Terrés, Villalonga Pilar. "Substructural Logics and Pragmatic Enrichment." Doctoral thesis, Universitat de Barcelona, 2020. http://hdl.handle.net/10803/668507.

Full text
Abstract:
In this dissertation, we argue for a Pragmatic Logical Pluralism, a pluralist thesis about logic which endorses Classical, Relevant, Linear, and Ordered logic. We justify that the formal languages of these four logics are legitimate codifications of the logical vocabulary and capture legitimate senses of logical consequence. This will be justified given a particular interpretation of the four formal languages: logical consequence and conditional, disjunction, and conjunction of the four different logics codify different and legitimate senses of ‘follows from’, ‘if...then’, ‘or’ and ‘and’ which diverge in their different pragmatic enrichments. The dissertation is twofold. First, we will explore the effect that the lack of structural rules has on logical connectives, in four substructural logics, and its connection with certain pragmatic enrichments. Second, we will defend a pluralist thesis according to which pragmatics has an important role for capturing the inferential role of logical vocabulary, both of the notions of ‘follows from’ and the logical constants, although classical logic preserves truth and captures their lit- eral meaning. In sum, we defend a version of logical pluralism based on the plurality of legitimate translations from natural language to formal languages, arguing that more than one translation is legitimate for logical vocabulary, which makes it possible to adopt more than one logic.
En aquesta tesi presentem el Pluralisme Lògic Pragmàtic, una tesi pluralista sobre la lògica que accepta les lògiques Clàssica, Rellevant, Lineal i Ordenada. Justifiquem que els llenguatges formals d’aquestes quatre lògiques són codificacions legítimes del vocabulari lògic i capturen sentits legítims de la conseqüència lògica. Això es justificarà donant una interpretació particular dels quatre llenguatges formals: la conseqüència lògica i el condicional, la disjunció i la conjunció de les quatre lògiques acceptades codifiquen diferents i legítims sentits de ‘si...llavors’, ‘o’ i ‘i’, que es distingeixen pels diferents enriquiments pragmàtics que codifiquen. La tesi té dos vessants. Primer, explorem l’efecte que la falta de regles estructurals té en les connectives lògiques de les quatre lògiques presentades, i la seva connexió amb certs enriquiments pragmàtics. Segon, defensem una visió pluralista segons la qual la pragmàtica juga un rol important a l’hora de capturar el rol inferencial del vocabulari lògic, tant per la noció de conseqüència lògica com per les connectives, tot i que la lògica clàssica preserva la veritat i captura el seu significat literal. En resum, defensem una versió del pluralisme lògic basat en la pluralitat de traduccions legítimes del llenguatge natural al llenguatge formal, argumentant que més d’una traducció és legítima pel vocabulari lògic, la qual cosa ens permet adoptar més d’una lògica.
APA, Harvard, Vancouver, ISO, and other styles
14

Abad, Lima Rita Jakelyn. "Sistema de recepción digital de un radar controlado por CPLDS." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/9553.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor
Describe el desarrollo de un equipo electrónico prototipo utilizando dispositivos lógicos programables complejos (CPLD’s) que controla al sistema de recepción del radar del radio observatorio de Jicamarca (ROJ). Los CPLD’s han sido programados mediante el lenguaje de descripción de hardware VHDL, utilizando para la síntesis, simulación, implementación y programación de estos dispositivos el software de distribución gratuita QUARTUS II de ALTERA. Ha sido necesario la utilización de tres CPLD’s, programados para cumplir sus propias funciones y las complementarias con los otros, motivo por el cual ha sido necesario darles la capacidad de comunicarse entre ellos. Finalmente, el prototipo ha sido sometido a pruebas y ha demostrado ser de características superiores a otro desarrollado en el ROJ denominado REX-2X y es comparable y superior en algunas de sus características al equipo comercial ECHOTEK GC214, satisface las necesidades del ROJ y cumple con las exigencias del mercado, por lo que ha tenido aceptación en otras instituciones nacionales como la Marina de Guerra del Perú y otras entidades extranjeras que se dedican a la investigación de la ionósfera, contribuyendo de esta manera con el desarrollo de la tecnología nacional.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
15

Tonfat, Seclen Jorge Lucio. "Diseño de un modulador FM basado en la tecnología software-defined radio en FPGA." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2008. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5095.

Full text
Abstract:
el objetivo de este trabajo de tesis es el desarrollo de un dispositivo de electroestimulación muscular portátil, ligero y de bajo costo, que permita complementar el entrenamiento físico voluntario y tonifique las fibras musculares.
La aparición de una gran cantidad de estándares para comunicaciones inalámbricas como WLAN IEEE 802.11, WIMAX, GPRS, Bluetooth, etc. ha aumentado el problema que enfrentan los diseñadores de equipos de telecomunicaciones que requieren cada vez más espacio en sus equipos para la adición de nuevos circuitos que soporten los estándares emergentes. La tecnología Software-defined radio (SDR) ha generado la atención de las telecomunicaciones debido a que ofrece una solución al problema actual. Se basa en la idea de llevar el software lo más cerca que se pueda a la antena. Pretende reeemplazar a todos los circuitos que realizan la modulación y demodulación por un algoritmo que se ejecute en un procesador de propósito general. Esta característica le da una gran flexibilidad y adaptabilidad ante la aparición de nuevos estándares. Estas dos propiedades son las que quieren aprovechar para plantear una solución al problema que existe actualmente en las comunicaciones de emergencia en nuestro país. El problema reside en la incompatibilidad de algunos equipos para poder comunicarse debido a diferencias en las bandas de operación y en algunos casos al tipo de modulación empleado. El presente trabajo pretende mostrar una alternativa tecnológica al problema mencionado utilizando la tecnología SDR. La propuesta consiste en realizar un diseño digital basado en FPGA que sea capaz de realizar la etapa de la modulación y selección de la frecuencia utilizando un código en lenguaje C. Se utiliza el CODEC WM8731 como dispositivo para la adquisición de la señal de audio que será procesada en el FPGA, para ello se utilizará la tarjeta de desarrollo Altera DE2 Development kit como hardware para realizar las pruebas respectivas. Todo el tratamiento de la señal se realizará en banda base para luego ser moduladad a la frecuencia respectiva utilizando un sintetizador digital directo.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
16

De, Hoces Lomba María. "Retórica forense y Literatura: el orator perfectus y la obra literaria como instrumento de defensa jurídica." Doctoral thesis, Universidad de Alicante, 2019. http://hdl.handle.net/10045/95549.

Full text
Abstract:
Tomando como base obras literarias de reconocido prestigio, así como la formación académica y vivencias personales de sus autores, es posible establecer una relación real y plenamente útil entre Derecho y Literatura, de manera que se constate que el primero es capaz de influenciar una obra literaria más allá de la mera ficción. Estas obras, a las que llamaríamos defensas literarias serían capaces de alcanzar plenos efectos en el mundo real, afectando directamente a la vida de sus creadores, cumpliendo de ese modo la intención con la que fueron escritas. Se trataría de una vertiente más del conocido movimiento Derecho y Literatura, ya que se produce una doble interacción entre ambas disciplinas. Por un lado, el Derecho, a través de la presencia de elementos y estructuras jurídicas, es capaz de condicionar el sentido de una obra literaria mientras se beneficia de una serie de instrumentos que le permiten alejarse de la rigidez del lenguaje jurídico; a su vez, al tratarse de obras de naturaleza literaria, puede extender la Literatura su ámbito de actuación a otras esferas distintas de la ficción, tradicionalmente influenciadas por otras disciplinas. Se trataría pues, de un subgénero en el que la inserción total del Derecho en la Literatura origina una obra literaria en fondo y forma, que a su vez es capaz de desplegar efectos asimilables a los de un documento de naturaleza jurídica y procesal como es el escrito de defensa.
APA, Harvard, Vancouver, ISO, and other styles
17

Piloni, Diego. "Representación semántica de lenguaje natural en el dominio de fórmulas lógicas." Bachelor's thesis, 2018. http://hdl.handle.net/11086/10761.

Full text
Abstract:
Este trabajo final de licenciatura parte del supuesto que el aprendizaje del lenguaje simbólico de lógica formal es problemático (Oller, 2006). Algunos aspectos de esta dificultad son analizados por los autores de “Language, Proof and Logic” utilizando datos empíricos (Barker-Plummer, 2008). Si bien existen propuestas didácticas con soportes informáticos para el aprendizaje de lógica (Barrionuevo, 2008), la mayoría se centra o bien en los sistemas deductivos o bien en la semántica formal de fórmulas lógicas. Pareciera, por lo tanto, que faltan soportes digitales que transparenten las dificultades inherentes a la traducción de lenguajes naturales al lenguaje simbólico. El objetivo principal de este trabajo es desarrollar una herramienta didáctica informática que facilite la adquisición del lenguaje formal de lógica de primer orden
APA, Harvard, Vancouver, ISO, and other styles
18

Behnisch, Cristina H. "Sobre la compatibilidad entre realismo y relativismo conceptual: un examen de la tesis de Putnam, desde un punto de vista lógico." Tesis, 2005. http://hdl.handle.net/10915/3036.

Full text
Abstract:
Las indagaciones en la pregunta por lo que hay permiten distinguir a grandes rasgos entre dos enfoques: uno, el de los pensadores que entendieron que el tema a investigar era la naturaleza y estructura del mundo, y otro, el de aquellos quienes, al sostener que describir el mundo no es simplemente copiarlo, atendieron a lo que se llamó esquema conceptual: esto es, al marco conceptual cuya forma toman las descripciones del mundo. Desde el segundo enfoque cabe suponer, o bien (a) que una única estructura que no cambia subyace al conocimiento humano, o (b) que, dado el carácter dinámico e histórico del pensamiento humano, se desarrollan marcos conceptuales alternativos. El segundo enfoque, en cualquiera de sus dos formas, suele estar ligado a la convicción de que el mundo, tal como es, nos es inaccesible. La situación se puede plantear como un dilema, ninguno de cuyos cuernos permite alentar esperanzas de avances bien fundados. O bien se pretende describir el mundo, tal como es, sin contemplar el hecho de que esa descripción incluye elecciones conceptuales propias de un sujeto, o bien se centra la investigación en los rasgos de el/los esquema/s conceptual/es imprescindibles para construir una descripción del mundo, imposibilitando, con ello, el acceso a la realidad tal como ésta es.
APA, Harvard, Vancouver, ISO, and other styles
19

Esquisabel, Oscar Miguel. "Del lenguaje racional a la ciencia de las fórmulas: una interpretación del papel y el sentido del proyecto leibniziano de la Characteristica Generalis." Tesis, 1999. http://hdl.handle.net/10915/2984.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography