To see the other types of publications on this topic, follow the link: Ciencias de la Computación.

Dissertations / Theses on the topic 'Ciencias de la Computación'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Ciencias de la Computación.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rubilar, Rojas Felipe Ignacio. "Directorio de investigadores en Ciencias de la Computación." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/152116.

Full text
Abstract:
Ingeniero Civil en Computación<br>En los últimos años, varias editoriales, empresas y algunas instituciones educativas se han dedicado a recopilar información sobre el estado de la comunidad de investigadores en Ciencias de la Computación, y mantener esa información en repositorios propios. Estas iniciativas están enfocadas principalmente en el procesamiento de los artículos científicos y en la generación de perfiles públicos de investigadores, más que en apoyar la generación de contactos o instancias de colaboración entre los miembros de la comunidad, o bien dar soporte a las necesidades habituales de los investigadores o de las instituciones a las que ellos pertenecen. Si uno desea acceder a uno de estos servicios, y está disponible, entonces debe pagar por ello. Hoy en día este tipo de iniciativas son manejadas como un negocio, más que como un servicio a la comunidad. Con el objetivo de subsanar esta situación, en este trabajo de memoria se desarrolló una prueba de concepto que permitió determinar la factibilidad técnica, operativa y económica de implementar una iniciativa de carácter gratuita, que brinde un servicio a la comunidad utilizando datos de diversas fuentes de información científica. Particularmente se diseñó e im- plementó un sistema de recopilación automática de información de investigadores en ciencias de la computación y de sus publicaciones. Este sistema recupera, valida e integra informa- ción de distintas fuentes, y la almacena en un repositorio que es consultable a través de una aplicación Web. Si bien los servicios provistos por la aplicación no son suficientes para lograr el objetivo final deseado y solucionar completamente el problema, éstos permitirán validar el sistema como una solución factible y de interés a los usuarios, con potencial de evolución para satisfacer una mayor variedad de tipos de consulta. Los resultados de las pruebas realizadas con algunos investigadores del área muestran que el sistema es de su interés, corroborando la usabilidad y utilidad de la aplicación de consulta de datos. Además, los evaluadores destacaron el potencial que la información recopilada tiene a la hora de resolver consultas que surgen durante el desarrollo de sus actividades. Si bien existen preocupaciones relacionadas a la escalabilidad del sistema, se proponen posibles soluciones a explorar en una próxima iteración, por lo que se espera que el sistema implementado sea un primer paso hacia la elaboración de una herramienta que pueda ser utilizada efectivamente por la comunidad, con el fin de disminuir el tiempo y el trabajo manual necesario en el desarrollo de las actividades que se busca apoyar.
APA, Harvard, Vancouver, ISO, and other styles
2

Ríos, Araya Paula Andrea. "Tag Clouds para investigadores de Ciencias de la Computación." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168614.

Full text
Abstract:
Memoria para optar al título de Ingeniera Civil en Computación<br>Actualmente, existen millones de publicaciones de investigadores en distintas áreas de las Ciencias de la Computación, y estas continúan aumentando día a día. En los perfiles de cada investigador del área en sitios web como DBLP o Google Scholar, se puede encontrar un listado con sus publicaciones. Sin embargo, con esta información por sí sola es difícil captar cuáles son los tópicos de interés de cada investigador a simple vista, y podría ser necesario en un ámbito de colaboración entre académicos o entre académicos y estudiantes. Este trabajo busca facilitar la información resumida de los tópicos de investigación de académicos de Ciencias de la Computación mediante la generación de visualizaciones como nubes de palabras, o tag clouds, a partir de las palabras y frases clave mencionadas en las publicaciones encontradas en repositorios bibliográficos online, como los mencionados anteriormente. El sistema desarrollado en esta memoria consiste en una herramienta que permite la creación de tag clouds para perfiles de DBLP. Esta herramienta se encarga de la obtención de las publicaciones encontradas en el perfil, la extracción de potenciales keywords y la selección de las keywords más relevantes según cuatro modelos de ordenamiento. Por cada uno de estos modelos se crea una variante de tag cloud. Además, se crea un sitio web que permite el uso de la herramienta para cualquier usuario. El trabajo se enfoca principalmente en la investigación de modelos de learning to rank y la comparación de su desempeño en la tarea de definir las keywords más relevantes para un investigador de Ciencias de la Computación. Dado que existen tres enfoques distintos para resolver la tarea de ordenamiento, se utilizan cuatro modelos de learning to rank, teniendo al menos uno por cada enfoque. Estos son regresión lineal, RankSVM, LambdaMART y AdaRank. De las evaluaciones a las tag clouds creadas por la herramienta se observa que no habría una preferencia absoluta por un método por sobre los demás, sino que varía según cada persona, pero en la mayoría de los casos se le asigna el puntaje máximo a al menos una de las tag clouds generadas. Esto podría deberse a que los modelos tienden a diferir en su enfoque, en algunos casos seleccionando keywords más técnicas y en otros más genéricas. De esta forma la apreciación de un método por sobre el otro se ve afectada por las preferencias de cada uno. De esto se concluye la importancia de dar la posibilidad de elegir a los usuarios entre distintas variantes.
APA, Harvard, Vancouver, ISO, and other styles
3

Conocimiento, Dirección de Gestión del. "Plantilla para elaborar Tesis de Ciencias de la Computación." Universidad Peruana de Ciencias Aplicadas, 2021. http://hdl.handle.net/10757/654146.

Full text
Abstract:
Plantilla para elaborar Tesis de Ciencias de la Computación para la obtención del título profesional de Licenciado en Ciencias de la Computación en el Programa Académico de Ciencias de la computación. Facultad de Ingeniería. Universidad Peruana de Ciencias Aplicadas.
APA, Harvard, Vancouver, ISO, and other styles
4

Conocimiento, Dirección de Gestión del. "Plantilla para elaborar Trabajo de investigación de Ciencias de la Computación." Universidad Peruana de Ciencias Aplicadas, 2021. http://hdl.handle.net/10757/654149.

Full text
Abstract:
Plantilla para elaborar Trabajo de investigación de Ciencias de la Computación para la obtención del grado de bachiller en Ciencias de la Computación en el Programa Académico de Ciencias de la computación. Facultad de Ingeniería. Universidad Peruana de Ciencias Aplicadas.
APA, Harvard, Vancouver, ISO, and other styles
5

Toledo, Acuña Luis Esteban. "Gestión integral de productividades para el Departamento de Ciencias de la Computación." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/136188.

Full text
Abstract:
Magíster en Tecnologías de la Información<br>El Departamento de Ciencias de la Computación de la Universidad de Chile (DCC) cuenta con un programa de monitoreo de las actividades de todos sus funcionarios y académicos, con el cual se define las asignaciones económicas (productividades) de la gente que compone el Departamento. El programa de productividades actualmente funciona mediante un proceso artesanal, basado en transferencias de datos a través de emails y comunicaciones cara-a-cara. El procesamiento de estos datos también se realiza de forma manual (usando planillas Excel), pues no existe un sistema de software capaz de apoyar la gestión completa de dicho programa. Debido a la poca automatización de la solución actual, el proceso se vuelve susceptible a errores y poco visible para la mayoría de los involucrados. Por otra parte, las limitaciones de esta solución hacen difícil la extracción de estadísticas precisas, que permitan apoyar la toma de decisiones en este ámbito. Además, el costo de informar a los funcionarios y académicos acerca de sus productividades del mes en curso, o acerca de su historial de productividad, se vuelve sumamente alto. En resumen, el programa de productividades es actualmente un mecanismo susceptible a errores, y poco visible y accesible para la mayoría de los miembros del DCC. El propósito de este trabajo de tesis es diseñar e implementar una solución de software que le permita a este programa: (1) ser fácilmente accesible y visible para todos los involucrados; (2) realizar un manejo seguro y preciso de la información de productividades; (3) manejar la generación y entrega de información en forma online en base a perfiles de usuarios; y (4) generar estadísticas que permitan apoyar la toma de decisiones de las autoridades del DCC. De esa manera, se buscará mejorar parte de la gestión interna del Departamento, volviéndolo más robusto y transparente en un ámbito que es sumamente sensible para la gente.
APA, Harvard, Vancouver, ISO, and other styles
6

Conocimiento, Dirección de Gestión del. "Plantilla para elaborar Trabajo de suficiencia profesional de Ciencias de la Computación." Universidad Peruana de Ciencias Aplicadas, 2021. http://hdl.handle.net/10757/654148.

Full text
Abstract:
Plantilla para elaborar Trabajo de suficiencia profesional de Ciencias de la Computación para la obtención del título profesional de Licenciado en Ciencias de la Computación en el Programa Académico de Ciencias de la computación. Facultad de Ingeniería. Universidad Peruana de Ciencias Aplicadas.
APA, Harvard, Vancouver, ISO, and other styles
7

Oporto, Segura Leonardo David. "Una Plataforma Tecnológica de Apoyo a la Educación Distribuida en Ciencias de la Computación." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/102325.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

González, Leiva Marcelo Enrique. "Aprendizaje Colaborativo en Ciencias Bológicas Apoyado por Dispositivos Móviles." Tesis, Universidad de Chile, 2007. http://www.repositorio.uchile.cl/handle/2250/104587.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Dettoni, Toledo Carlos Patricio. "Reingeniería del sistema de gestión de proyectos del Departamento de Ciencias de la Computación." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/139096.

Full text
Abstract:
Ingeniero Civil en Computación<br>El Sistema de Gestión de Proyectos del Departamento de Ciencias de la Computación es una aplicación Web que permite al DCC (y particularmente al área de investigación) analizar de manera rápida e intuitiva toda la información relacionada con los proyectos asociados a los académicos del Departamento. Esta información puede presentarse de distintas maneras dependiendo del objetivo, pues puede verse información básica, detallada, financiera o estadística. Además de gestionar proyectos, el software es capaz de administrar los investigadores que participan o han participado en proyectos conjuntos con académicos del DCC. A través de este servicio puede obtenerse información detallada de académicos o expertos, no sólo provenientes del DCC sino también de otros Departamentos, de la misma Facultad, de otras Facultades o incluso de otras universidades. Existe también una sección dedicada al registro de académicos visitantes y postdoctorandos que estén temporalmente en el DCC realizando una estadía de trabajo. La aplicación desarrollada provee múltiples facilidades para la búsqueda y análisis de la información, permitiendo en la mayoría de los casos, la realización de búsquedas por palabra clave, o búsquedas avanzadas. También es posible exportar la información resultante de las consultas, a archivos en formato XLSX. Esta capacidad permite que dicha información pueda ser procesada a voluntad, aprovechando el poder que hoy tienen las herramientas de manejo de hojas de cálculo. La responsabilidad de la mantención de la información se encuentra centralizada mayormente en la Secretaria de Investigación, que es quien ingresa y actualiza la información relacionada con los proyectos, investigadores, transferencias y visitas/postdoctorados. El Encargado de Investigación tiene los mismos derechos que la secretaria, razón por la cual no se implementó un rol exclusivo para él. Por otro lado, en la parte financiera, el área encargada de asegurar la correcta recaudación del dinero proveniente de las distintas fuentes de financiamiento, es la Administración. Esta posee servicios exclusivos que le permite la visualización de información económica, la recepción de notificaciones (por ej., la confirmación de la llegada del dinero) y la comunicación con los responsables directos de los proyectos registrados. El sistema se encuentra actualmente en marcha blanca, y los resultados de las pruebas de usabilidad y utilidad de esta herramienta han sido muy satisfactorios. Se espera que la puesta en producción de este sistema permita al DCC mantener un control y tomar decisiones estratégicas en este ámbito.
APA, Harvard, Vancouver, ISO, and other styles
10

Rodríguez, Ávalos Renzo Gerardo, and Sagástegui Diego Alfonso Contreras. "Tendencias en investigación en computación." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2015. http://hdl.handle.net/10757/622315.

Full text
Abstract:
El objetivo general de esta propuesta es identificar, documentar y proponer líneas de investigación aplicables a la Escuela de Ingeniería de Sistemas y Computación (EISC) de la Universidad Peruana de Ciencias Aplicadas. Dichas líneas de investigación estarán enfocadas en las tendencias tecnológicas que se vienen desarrollando. La misión de la EISC define: “La Facultad de Ingeniería de la UPC forma ingenieros competentes en el uso de ciencia y tecnología de avanzada, con capacidad de liderazgo y de gestión empresarial, que contribuye a la creación y difusión de conocimientos para el desarrollo y el bienestar de la sociedad” Sin embargo, se ha identificado que nuestra escuela no cuenta con una definición ni estructura de líneas de investigación indispensables para el desarrollo de proyectos de innovación tecnológica. El reto principal de este proyecto es identificar líneas de investigación relacionadas al ámbito tecnológico aplicables a nuestra casa educativa. Para ello, se identifican las diez mejores universidades e institutos en Estados Unidos, Canadá, Europa, México, Asia y Oceanía. Luego, se procede a identificar, documentar y clasificar las líneas de investigación que están siendo utilizadas en sus escuelas. Asimismo, se identifica y documenta las funcionalidades, requerimientos, propósitos y tecnologías de los productos más resaltantes que estén siendo desarrollados por las universidades seleccionadas. En base a toda la información recopilada y analizada junto con los conocimientos adquiridos, se realiza la definición de los parámetros bajo los cuales se van a sustentar por qué es que las líneas de investigación clasificadas son aplicables o no a la Escuela de Ingeniería de Sistemas y Computación de la Universidad Peruana de Ciencias Aplicadas y, junto a ello, qué productos son los que se pueden investigar o desarrollar, los cuáles se consolidarán en el portafolio mencionado líneas anteriores. Finalmente, se tendrán en consideración los riesgos que han sido detectados, sus respectivas mitigaciones y las suposiciones y restricciones asumidas para el proyecto, todo esto detallado en el presente documento.<br>This research project has as its main objective to propose investigation lines to be implemented in the “Escuela de Ingenieria de Sistemas y Computacion” so that these lines can be used to set in the right path the future investigations, project developments and new subjects that will allow the school to be at the top of the technological trends. The first part of this research is an investigation of the main technologies that are being developed at an academic level. For this research, a classification of the best universities in the world was done to gather different researches, developments, projects among other documents related to the topic to obtain a greater information source. Then, other investigations, projects publications and curriculums from the “Escuela de Ingenieria de Sistemas y Computacion” to integrate the sources of information. For the second part of the project, the information is categorized. In this way, technological categories are assigned to the technologies that are used in the school courses, projects, researches and other sources gathered in the first part. Once concluded the previous process, the team continued with the evaluation of the technological categories in which the previously obtained categories are analyzed to determine if the these can be applied to the school or not. As final step, the resulted technologies are grouped to conform the investigations lines to be implemented in the school. For this project, the following deliverables are considered: A project plan in which the risks, assumptions and restrictions are identified; a final memory of the project in which the steps to obtain the investigation lines are stated as well as the continuum of the project and other products obtained during the investigation process. Finally, the deliverables mentioned are evaluated and approved by the Project Committee, the managing professor, the professor that acts as client and the virtual enterprise “Innova”.
APA, Harvard, Vancouver, ISO, and other styles
11

Oporto, Segura Leonardo David. "Una Estrategia de Educación a Distancia para el Departamento de Ciencias de la Computación, Utilizando Conference XP." Tesis, Universidad de Chile, 2008. http://www.repositorio.uchile.cl/handle/2250/104970.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

León, Shimabukuro Alexis Enrique. "Diseño e implementación de un navegador de conceptos enlazados en el dominio de Ciencias de la computación." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13494.

Full text
Abstract:
En la actualidad, la World Wide Web es una de las fuentes principales de información, siendo un espacio que se encuentra en constante crecimiento, puesto que cada vez mas personas cuentan con acceso a internet. Sin embargo, esto genera múltiples problemas entre los que podemos mencionar como la duplicidad de información, que dificulta la búsqueda de información relevante a los usuarios, quienes utilizan herramientas como motores de búsqueda para esta tarea. Ante esta situación surgió la Web Semántica, extensión de la Web tradicional, en donde la información es comprensible tanto para las personas como para las máquinas. Para publicar información en este espacio existen un conjunto de prácticas conocido como Linked Data, que permiten que la información se estructure según su significado y relación entre los datos que la componen, lo que facilita la labor de búsqueda y permite el descubrimiento de nueva información, generando valor a usuarios como investigadores, que constantemente se encuentran en búsqueda de conocimientos. Toda la información en constante crecimiento contenida en la Web Semántica puede ser accedida simplemente mediante navegadores convencionales; sin embargo, esta se encuentra en su mayoría en formato RDF, por lo que el usuario común no podrá comprender su contenido. Para que la información pueda ser de utilidad, se necesitan conocimientos en conceptos como RDF y XML, lo que limita gran parte del potencial actual de la Web Semántica a los especialistas en dicha área. El presente proyecto implementa un navegador de Linked Data, mediante el cual los usuarios pueden consultar información en el dominio de las ciencias de la computación, dicha información es obtenida de la Web Semántica, permitiendo el descubrimiento de información relevante, contribuyendo así a la expansión de dicha tecnología, que busca unificar y estructurar toda la información contenida en la web. Para la elaboración del proyecto, se implementó un módulo de procesamiento de consultas, en donde el usuario ingresa una cadena de búsqueda, al igual que en un motor de búsqueda tradicional y mediante esta cadena se obtienen posibles propiedades, que son enviadas a manera de consultas en lenguaje SPARQL, a partir de cuyos resultados se construyen estructuras RDFs que muestran los conceptos y la información presentada en una interfaz gráfica para que el usuario pueda visualizarla y navegar a través de dichos conceptos, permitiendo el descubrimiento de información relevante.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
13

Escobar, Umaña Eduardo Esteban. "Sistema de administración de programas y cursos de extensión para el Departamento de Ciencias de la Computación." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/115350.

Full text
Abstract:
El programa de Educación Continua y Capacitación (PEC) del Departamento de Ciencias de la Computación (DCC) en la actualidad ofrece cursos de extensión, postítulo y diplomados, y un magíster profesional a ingenieros en computación y áreas afines. Estos programas se dictan en horario vespertino y se ofrecen tanto a empresas (en la modalidad de programas cerrados), como a profesionales independientes (en la modalidad de programas abiertos). Más de 200 profesionales pasan cada año por los programas del PEC. Debido al reconocimiento que el mercado ha hecho a los programas del DCC, la cantidad de cursos y estudiantes se ha incrementado en forma sostenida durante los últimos 5 años. Por lo tanto, el PEC ha pasado a ser un componente importante que no sólo vincula al DCC con la industria, sino que también representa una importante fuente de recursos económicos para el Departamento. Las operaciones del área se manejan hasta el día de hoy de manera un tanto artesanal, debido a la falta de un sistema de apoyo a sus actividades. Por lo tanto, los procesos del área están propensos a errores, son poco versátiles, además de lentos y caros. Sin embargo, la principal limitante es la imposibilidad de seguir creciendo en forma sostenida debido a la complejidad y volumen de las actuales operaciones del área. Esta situación claramente no es sostenible en el tiempo, y pone en riesgo los buenos resultados obtenidos hasta el momento. Si bien hoy en día la operación del área se lleva a cabo de manera aceptable, ésta depende en gran medida de la disponibilidad y dedicación del personal involucrado. Esto es algo que claramente el DCC debería querer evitar a fin de asegurar el funcionamiento continuo y la sustentabilidad de esta área de servicios. Por otra parte, los eventuales problemas en la logística del PEC generan grandes desajustes y afectan la imagen del DCC frente a los estudiantes y las empresas clientes. Por lo anterior, se ha vuelto necesario automatizar algunos de los procesos del área, para que la operación del PEC resulte más sencilla, robusta y eficiente; y al mismo tiempo independiente (en cierta medida) del know-how de su personal. En el presente trabajo de memoria se desarrolló un sistema Web, que permite administrar los programas, cursos, profesores y calendarios de clases. Estas actividades del PEC son las que más limitan el crecimiento del área, por lo que su sistematización debería contribuir a mejorar en forma sustantiva las operaciones del área. El software desarrollado ha sido evaluado en forma preliminar por el personal del PEC, por su coordinador, y también por un profesor que dicta regularmente clases en dicho programa. Los resultados obtenidos indican que el sistema desarrollado se adapta a la mecánica del PEC, y que facilitará en gran parte la mecánica con la que hoy en día se maneja el área. El próximo paso es realizar una marcha blanca para poder dejarlo en producción durante enero próximo.
APA, Harvard, Vancouver, ISO, and other styles
14

Peredo, Andrade Oscar Francisco. "Implementación de un Método de Programación Semidefinida Usando Computación Paralela." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103643.

Full text
Abstract:
En el presente trabajo se estudió y rediseñó una implementación existente del algoritmo Filter-SDP, el cual resuelve problemas de programación semidefinida no lineal de la forma: donde f : Rn → R, h : Rn → Rp y G : Rn → Sm son funciones de clase C2 y Sm denota el espacio lineal de las matrices simétricas de m×m dotado del producto interno A·B = . El algoritmo resuelve en cada iteración una aproximación local representada por un problema de programación semidefinida lineal, y adicionalmente se utiliza un esquema de penalización multi-objetivo, en el cual se minimiza la función objetivo y una función de mérito utilizando un filtro. Se estudió la introducción de cálculo paralelo en partes específicas del algoritmo, con el objetivo de disminuir el tiempo de ejecución. Se reimplementó el algoritmo utilizando el lenguaje C y la librería de cálculo paralelo MPI. Esa nueva implementación se comparó con un desarrollo ya existente, realizado sobre la plataforma MATLAB, y se midió su speedup en los problemas más pesados de una batería de tests escogida. Como apoyo al desarrollo del algoritmo, se diseñaron nuevas fases de restauración sobre la plataforma MATLAB, con el objetivo de mejorar la calidad de las soluciones obtenidas. Se diseñaron 4 nuevos métodos para la fase de restauración del algoritmo, cuyas principales áreas de influencia son la restauración inexacta, el diseño de controladores retroalimentados de salida estática y el posicionamiento de polos. Dentro de los resultados obtenidos, se logró visualizar las ventajas de la nueva implementación con respecto al desarrollo ya existente, así como demostrar el beneficio que se obtiene en el speedup para problemas pesados. También se realizó una comparación entre los métodos diseñados para la fase de restauración, con la cual se llegó a conclusiones que pueden abrir nuevas áreas de investigación y trabajo a futuro. Finalmente, se aprendió a utilizar una herramienta de álgebra lineal que funciona sobre ambientes de cálculo paralelo, ScaLAPACK, y se perfeccionó el proceso de desarrollo de software que ya se tenía sobre este tipo de plataformas.
APA, Harvard, Vancouver, ISO, and other styles
15

Mora, Lumbreras Marva Angélica. "Design of Virtual Environments Using Multi-screen, 3D Sound and Stereoscopic Systems." Thesis, Universidad de las Américas Puebla, 2010. http://catarina.udlap.mx/u_dl_a/tales/documentos/dsc/mora_l_ma/.

Full text
Abstract:
The technological evolution has resulted in a series of benefits to the Virtual Reality area. Now it is possible to represent knowledge in an interactive way where visual, haptic and audible aspects are combined, allowing for the improvement of our perception, imagination and manipulation. Virtual Reality scientists are always improving the interaction with the users using friendly environments and sophisticated tools. Nevertheless, the construction of a virtual environment involves many tasks, such as multi-screen displaying, computer-simulated worlds, stereoscopic techniques, manipulation, navigation, sound, etc. This dissertation focuses on the construction of virtual environments, and the results of this research is specially directed to researchers of public and private Universities and others Institutions, which have the challenge of constructing a virtual environment. This work presents a set of contributions towards building a variety of virtual environments.<br>(cont.) It specifically includes: - A proposed model for building virtual environments using multiple screens placed at arbitrary positions and orientations. - A mathematical description for determining the space requirements and building multi-screen environments (CAVEs) of specific dimensions. - The adaptation of three stereoscopic devices: a Cazes-type stereoscope, a Wheatstone-type stereoscope and a boxed-type stereoscope. o Proposed model for a Cazes-type digital stereoscope and equations for computing the size of the mirrors involved. o Proposed model for a Wheatstone-type digital stereoscope and a mathematical description of the proposed for computing the dimensions of the stereoscope o Proposed model for a Boxed-type digital stereoscope - Analysis and study of the behavior of sound on combining: "Navigation, 3D objects and 3D sound" and mathematical solutions to problems of coherence of sound. - A proposed model for building adaptable virtual environments and an analysis of three kind of manipulations The results obtained in 0this research allow for the construction of open and flexible virtual environments, from very simple models to somewhat complex ones.
APA, Harvard, Vancouver, ISO, and other styles
16

García, González Yaser. "Modelos y Algoritmos para redes neuronales recurrentes basadas en wavelets aplicados a la detección de intrusos." Thesis, Universidad de las Américas Puebla, 2011. http://catarina.udlap.mx/u_dl_a/tales/documentos/mcc/garcia_g_y/.

Full text
Abstract:
A medida que las redes de comunicación crecen y se interconectan con otras redes públicas, estas quedan expuestas a sufrir distintos tipos de ataques que explotan vulnerabilidades en su infraestructura, resultado de la evolución continua de los ataques y la incorporación de nuevos métodos y técnicas. Aún cuando los ataques con frecuencia son iniciados desde el exterior, el aislamiento físico del segmento de red no garantiza la protección contra incidentes originados en el interior, es entonces cuando se hace necesario incorporar distintos niveles de protección para preservar la confidencialidad e integridad de la información de los usuarios. Los sistemas para detección de intrusos representan un componente importante dentro de las herramientas de defensa disponibles, su objetivo principal es detectar actividades no autorizadas e identificar de manera positiva ataques al sistema. A lo largo del desarrollo de estos sistemas se ha experimentado con distintos enfoques en su implementación, para mejorar su efectividad en la detección de ataques y adaptabilidad en la evolución de los mismos, motivando la investigación en distintas áreas como la inteligencia artificial y la estadística. Un enfoque considerado en los sistemas para detección de intrusos es el uso de redes neuronales<br>(cont.) Este modelo está inspirado en el proceso biológico del cerebro humano, considera distintas unidades interconectadas llamadas neurones, organizadas en capas. Cada unidad posee conexiones de entrada mediante las cuales recibe estímulos del medio externo o de otras unidades y conexiones de salida que transmiten el procesamiento de la entrada al aplicar una función de transferencia. Dentro de la implementación de sistemas para detección de intrusos que utilicen redes neuronales, existe una gran variedad de arquitecturas aplicadas, encontrando en cada una distintos resultados en la detección de ataques o conductas intrusivas. En los últimos años distintos modelos de redes neuronales artificiales han sido propuestos, entre estos destaca las redes neuronales artificiales wavelets. Las redes neuronales wavelet implementan el procesamiento wavelet como parte de su funcionamiento a través del cambio de las funciones de transferencia tradicionales como la sigmoide por funciones wavelet. La combinación de ambas teorías busca aprovechar las características de análisis y descomposición del procesamiento wavelet junto con las propiedades de aprendizaje, adaptación y generalización de las redes neuronales<br>(cont.) En esta investigación, el objetivo es mejorar los índices de detección y clasificación de ataques a los sistemas de redes de comunicación a través de un sistema para detección de intrusos que implemente en su funcionamiento una red neuronal recurrente wavelet. La aportación principal de esta investigación consiste en la definición de una nueva arquitectura recurrente con wavelets, dicha arquitectura describe un nuevo esquema de interconexiones entre las unidades de procesamiento, características dinámicas de estas y su distribución entre las distintas capas. Las propiedades recurrentes del modelo se presentan a través de auto conexiones en las unidades de procesamiento, representando de esta manera estados de memoria. A partir de la definición de la arquitectura se propone el algoritmo de aprendizaje para la etapa de entrenamiento, este algoritmo establece la forma en la que se actualizarán los parámetros ajustables en cada ciclo. Los resultados reportados por el modelo propuesto permiten establecer una mayor velocidad de convergencia en la etapa de entrenamiento frente a arquitecturas recurrentes tradicionales y recurrentes con wavelets. También se reconoce su capacidad en la detección de intrusos dando un porcentaje de efectividad de 92.19% y su baja emisión de falsas alarmas con una tasa de 5.43%
APA, Harvard, Vancouver, ISO, and other styles
17

Sepúlveda, Robles Daniel Eduardo. "Diseño de una aplicación para la simulación del Acoplamiento Molecular "Proteína-Ligando" Mediante Herramientas Basadas en Java." Thesis, Universidad de las Américas Puebla, 2010. http://catarina.udlap.mx/u_dl_a/tales/documentos/mcc/sepulveda_r_de/.

Full text
Abstract:
En este trabajo se presenta el proyecto molUDLAP, un simulador de Acoplamiento Molecular (AC) de tipo académico. Primero se presentan algunos de los aspectos más importantes del AC considerados para el diseño de este sistema; después se trata el procedimiento para la realización de dicho proyecto, para el cual se usaron distintos tipos de APIS en Java de tipo open source. Se presenta una breve descripción de cada herramienta (API) utilizada, también se describen los objetivos por los que ha sido utilizada cada una, se hacen algunas observaciones del trabajo que se ha realizado. Para el diseño de la aplicación se utilizó como lenguaje de programación Java debido principalmente a su versatilidad de ser multiplataforma; también se hizo uso de "Jmol", el cual es un visor Java de código abierto que se utiliza para visualizar las moléculas en 3D, los archivos de estas se descargan de la base de datos mundial "Protein Data Bank" (PDB).<br>(cont.) Para los procesos necesarios en la preparación de las moléculas (proteínas y ligandos), en parte de la simulación se utilizo "Chemistry Development Kit" (CDK); que consiste en una API en Java con herramientas para el desarrollo de aplicaciones de tipo bioinformatico, que brinda utilidades en la carga de archivos .pdb, .sdf, y para la implementación de cargas de Gasteiger, etc. Para el cálculo de la energía entre las moléculas se propuso e implemento una fórmula que hace uso de las interacciones que se dan entre las moléculas; finalmente para la simulación se implemento un algoritmo genético para recorrer las configuraciones posibles entre la proteína y el ligando en el espacio de búsqueda con lo que se obtiene la mejor configuración posible. En la elaboración de la aplicación se estudiaron algunos de los distintos métodos (algoritmos) computacionales que existen para llevar a cabo la simulación del Acoplamiento Molecular, es conveniente mencionar que en este caso en particular se hizo énfasis en las técnicas usadas para el acoplamiento de tipo "proteína-ligando". Finalmente se Analizaron algunas de las herramientas disponibles que se usan en modelado del Acoplamiento Molecular con la finalidad de tener parámetros de la entrada y la salida, en este caso se uso a Docking Server (http://www.dockingserver.com). .
APA, Harvard, Vancouver, ISO, and other styles
18

Pérez, Rojas Daniel. "Tlatoa Communicator a Framework to Create Conversational Systems." Thesis, Universidad de las Américas Puebla, 2010. http://catarina.udlap.mx/u_dl_a/tales/documentos/dsc/perez_r_d/.

Full text
Abstract:
The work presented in this proposal describes an approach to solve an actual problem in the conversational systems area: to enable non-experts to design and develop in which the user can establish a spoken dialogue systems. In most of the systems of this type, the specific information relative to the domain, or the specific information that delimits the specific capacities and limitations of the system is embedded within the source code. Due to this, people who want to modify or change actual systems experiment a great number of difficulties, because they must search and investigate in which parts of the source code this information is represented. Nowadays there are some efforts to solve this problem, some of them on the part of private sector companies, and some others by research centers mainly in universities around the world; the objective is to separate the domain specific information from the application, making the creation of new systems easier for people with few or no programming skills.<br>(cont.) Our proposal was born, when some years ago, in our research laboratory; we tried to part from an existing conversational system to modify it, first to make it work in Spanish language, then to change the domain of the dialogue. However these efforts did not bear satisfying results because the specific information for the tasks that were carried out was in several different parts of the source code, in different programming languages. The idea of the creation of a conversational system framework where the task specific information could be separated from the source code was born, and this idea was approved in 2003 by a committee conformed by UDLAP researchers and external participants, Dr. Luis Villaseñor from INOEP and Dr. Wayne Ward from the Center for Spoken Language Research of University of Colorado at Boulder. Our proposal consists of the creation of a new module that deals with all the aspects relative to the specific information of every task and instance of a dialogue system.<br>(cont.) This task specific information is specified in text files with XML format that are loaded first by this module, that scans and analyzes them, looking for errors, validating these archives against its respective document type definition (DTD) file. Next a consistency check is made to make sure that these configuration files keep the consistency with others according to the type of information handled. Once the information and its format is validated, this module instructs the rest of the modules in charge of the dialogue (DM, TTS, NLG, NLP, ASR, etc.) how to carry out all interaction in the dialogue system, where they can find the data which they require. The proposal presents the complete architecture of the system, together with a Graphical User Interface by means of which, a user with few or null programming skills will be able to specify a task describing all the elements a conversational system requires. The main contributions of this work are: The idea of a conversational system module that verifies and manages all the task specific information in a conversational system A GUI to allow non-expert users to create his/her own conversational system guided step by step in a simple web based interface.<br>(cont.) This work has been published in: "An approach to separate the Task-Specific-Information from the source code in Galaxy Based Conversational Systems" D. Perez, , I. Kirschning, WSEAS Transactions on Communications, Issue 1, Volume 3, January 2004. "TLATOA COMMUNICATOR: A framework to create Task-Independent Conversational Systems" D. Perez, I. Kirschning CISSE 2009 Volume 2: Innovations in Computing Sciences and Software Engineering SCSS, presented on December 16, 2009 (to be published).
APA, Harvard, Vancouver, ISO, and other styles
19

Cosío, Alcaraz Paulina Alejandra. "Retos Tecnológicos del Sistema EMS/SCADA del CENACE en un Sistema de Red Inteligente." Thesis, Universidad de las Américas Puebla, 2014. http://catarina.udlap.mx/u_dl_a/tales/documentos/mcc/cosio_a_pa/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Gutiérrez, Corona Ernesto. "Visualización de información para entendimiento de colecciones usando VOROSOM." Thesis, Universidad de las Américas Puebla, 2013. http://catarina.udlap.mx/u_dl_a/tales/documentos/mcc/gutierrez_c_e/.

Full text
Abstract:
Esta tesis presenta el diseño del esquema de visualización de información VOROSOM para entendimiento de colecciones y comprensión de información, desde una perspectiva de Interacción Humano-Computadora. Se presenta una revisión del área de visualización de información, tomando como enfoque principal el aspecto de comprensión de información. A partir de un análisis extenso de las interfaces de visualización de información, se encontraron dos líneas principales en las cuales este esquema de visualización hace una aportación: el primero se refiere al concepto de panorama general y el segundo a la navegación interactiva del espacio de información. Al aplicar el esquema de visualización resultante a repositorios institucionales, los cuales contienen la producción intelectual de los académicos de las universidades y centros de educación superior, es posible obtener una comprensión de las áreas de trabajo más importantes, los actores y sus inter-relaciones. El diseño del esquema se basa en las características de los mapas autoorganizados (SOMs) como la clasificación dinámica y la preservación de las relaciones semánticas entre los elementos de las colecciones, y la visualización de categorías con diagramas de Voronoi (de ahí su nombre VOROnoi + SOM). Esto se realizó siguiendo el mantra de diseño de una interfaz de visualización: primero proveer de una vista panorámica, después integrar herramientas de filtrado y zoom, y por último proporcionar al usuario detalles a demanda, y como elemento adicional al mantra también se propuso visualizar la evolución en el tiempo. El objetivo primordial de una interfaz de visualización es ayudar a los usuarios en sus tareas de aprendizaje, descubrimiento de conocimiento e investigación. Por lo tanto, para demostrar la viabilidad y potencial del esquema de visualización VOROSOM se implementó un prototipo que fue evaluado por usuarios. La implementación prototípica de VOROSOM se realizó mediante una arquitectura de interfaz web. Y se aplicó sobre las colecciones de documentos de la Red Mexicana de Repositorios Institucionales (REMERI). La arquitectura de REMERI sigue el modelo OAI-PMH para intercambio de metadatos con el objeto de integrar colecciones distribuidas y heterogéneas. Las colecciones REMERI se pueden observar en la Figura 1. Figura 1. Navegación en las colecciones de documentos institucionales (ReMeRI) Se realizó un estudio de usabilidad de la interfaz prototípica VOROSOM, con un grupo de ocho usuarios en sesiones de interacción constructiva (verbalización). Los resultados de este estudio indicaron que la interfaz VOROSOM es útil para el entendimiento de colecciones y la recuperación de documentos relacionados semánticamente. También se concluyó que la interfaz es sencilla e intuitiva, aunque existen aspectos a desarrollar. Por último se presenta una perspectiva para mejorar el esquema de VOROSOM, como trabajo futuro, al incorporar nubes de etiquetas que mejoren la semántica de la visualización. Adicionalmente, está planeada la implementación completa del diseño propuesto, incluyendo mecanismos de filtrado según distintos criterios, así como funcionalidad para mostrar visualmente la evolución de las colecciones lo que implicaría visualizar el avance en la producción de las instituciones de educación superior (IES) a lo largo del tiempo, como el ejemplo mostrado en la Figura 2. Figura 2. Ejemplo de evolución de la producción científica en las colecciones ReMeRI
APA, Harvard, Vancouver, ISO, and other styles
21

Rodríguez, Rodríguez Verónica. "Software Design Model for Adaptability and Adaptivity of Learning Objects Interfaces." Thesis, Universidad de las Américas Puebla, 2012. http://catarina.udlap.mx/u_dl_a/tales/documentos/dsc/rodriguez_r_v/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Galán, Hernández Nilda. "SunGroups: Visualización jerárquica de grandes colecciones con profundidad controlada y filtrado." Thesis, Universidad de las Américas Puebla, 2013. http://catarina.udlap.mx/u_dl_a/tales/documentos/mcc/galan_h_n/.

Full text
Abstract:
En esta tesis se presenta una interfaz de visualización interactiva llamada SunGroups, la cual facilita la exploración en grandes colecciones de documentos así como el entendimiento de las mismas. Inicialmente se hace una revisión del área de visualización de información para ubicar posibles aspectos a mejorar en la localización y exploración de documentos. De esta manera se notó la existencia de interfaces de visualización que ofrecen una perspectiva general de las colecciones, sin embargo con frecuencia éstas no cuentan con elementos que delimiten la cantidad de datos que se observan. Por ello la selección de un esquema de filtrado que cumpliera con eliminar dicho problema se convirtió en el primer pilar de SunGroups. Posteriormente se buscó el tipo de representación a utilizar encontrando que, aquellas que manejan una estructura jerárquica son adecuadas debido a que: permiten descomponer un problema complejo en varios pequeños y; como la jerarquía es muy frecuente en mundo real, las visualizaciones que cu tan con este aspecto son sencillas de manejar y entender por parte de los usuarios. Este hallazgo lleva a escoger Sunburst, visualización que marca los niveles de una jerarquía por medio de círculos concéntricos que se dividen en sectores en caso de existir elementos en un mismo nivel. Al determinar los componentes base de la aplicación propuesta, se comienza un análisis enfocado primordialmente en trabajos de investigación orientados en esquemas tipo Sunburst y filtros. A partir de esto y con retroalimentación obtenida por parte de usuarios a primeros prototipos se agregan nuevas funciones para después ubicar las principales aportaciones del software diseñado, siendo esencialmente: la combinación de filtros y una visualización tipo Sunburst para la exploración dentro de repositorios institucionales; la función de poder adentrarse a cada sector del Sunburst complementándose con un árbol de navegación que mantiene en contexto al usuario mientras se adentra; y el manejo de un código de color que enfatiza jerarquía, aunque puede ser cambiado de acuerdo a las necesidades del usuario. El diseño de la interfaz de SunGroups se basa en agrupar publicaciones por medio de palabras clave. Esta clasificación se realiza en varios niveles para evitar que un sólo grupo contenga un número de publicaciones difícil de manipular, por lo tanto se habla de grupos con subgrupos que a su vez cuentan con subordinados hasta el punto de llegar a una agrupación con un número manejable de documentos para mostrar. Toda esta jerarquía de grupos se coloca en una visualización tipo Sunburst. Es así como se toma el prefijo Sun de Sunburst para preceder a la palabra Groups, la cual hace referencia a los grupos que se manejan para la jerarquía. Una vez establecido el esquema de visualización, se contemplan detalles como el uso de dos a tres niveles máximos que faciliten la lectura de los textos dentro de los sectores, por lo tanto se implementa lo que en esta tesis se ha denominado "profundidad controlada" para mostrar los grupos que no pertenezcan a los primeros dos o tres niveles. El usuario solamente tendrá que dar clic en algún sector para que este se transforme en el centro de la jerarquía y aparezcan los niveles siguientes. Esto se complementa con un árbol de navegación que informa los niveles superiores del central de dicho momento para mantener el contexto, además de que es posible navegar a través de este árbol. Se agrega igualmente un esquema de filtrado para aminorar los resultados y un código de color para simplificar la comprensión de la interfaz. El principal objetivo de la interfaz es ayudar en tareas de investigación al apoyar en el entendimiento de la colección y hacer más sencilla la exploración dentro de la misma. Se diseño un prototipo que se aplica sobre las colecciones de documentos de la Red Mexicana de Repositorios Institucionales (REMERI). Para comprobar si el objetivo se alcanzó, se realiza un estudio de usabilidad de la interfaz prototípica SunGroups con diez participantes en sesiones individuales para una interacción directa con el software. Los resultados del estudio indicaron que SunGroups es útil para la exploración y entendimiento de colecciones; además de que apoya en la localización de publicaciones. Del mismo modo se concluyó que aún existen aspectos por mejorar, entre los cuales destacan: perfeccionar la forma del árbol de navegación para hacerlo más intuitivo; modificar las agrupaciones de palabras clave por unas de temas y subtemas; reforzar la idea de algunos elementos por medio de una iconografía ampliamente aceptada; y agregar un índice al manual de ayuda para incrementar su eficacia.
APA, Harvard, Vancouver, ISO, and other styles
23

Delgado, Vega Nicolás Sebastián. "U-Comunidad: Sistema automatizado que centraliza la gestión de roles organizacionales de la comunidad del Departamento de Ciencias de la Computación." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/152422.

Full text
Abstract:
Ingeniero Civil en Computación<br>La comunidad del Departamento de Ciencias de la Computación de la Universidad de Chile (DCC) está compuesta por muchas personas que cumplen diferentes roles. Esta información se encontraba en diversas fuentes, varias difíciles de consultar de forma automática, algunas con información incompleta y otras con información contradictoria entre ellas. La información de los miembros de la comunidad y los roles que cumplen se hace necesaria de tener centralizada y disponible para automatizar procesos como autorización y generación de contenidos dirigidos en la nueva plataforma de microservicios del DCC. El objetivo de este trabajo es proveer al DCC del sistema U-Comunidad, software que centraliza la información actualizada tanto de los miembros de la comunidad del departamento como sus roles organizacionales, permitiendo su consulta por los componentes de la plataforma de aplicaciones. Por lo anterior, se realiza un levantamiento de información sobre los roles de la comunidad, encontrando las fuentes que se deberán consultar y la necesidad de un microservicio que gestione los roles sin fuente, Gestión de Personal. Finalmente se entrega al DCC el resultado del levantamiento de información de los roles y sus fuentes, la implementación de U-Comunidad y el prototipo del microservicio de Gestión de Personal.
APA, Harvard, Vancouver, ISO, and other styles
24

Iglesia, Caro Oscar Miguel de la. "Automatización de Solicitudes de Alumnos en la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile." Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/104521.

Full text
Abstract:
Este trabajo aborda el problema de llevar al sistema Workflow desarrollado por el Área de Infotecnologías aquellas solicitudes de alumnos que hoy en día son las más urgentes de automatizar o mejorar, pensando siempre en otorgar una mejor calidad de servicio y transparencia en el proceso tanto para alumnos como funcionarios administrativos.
APA, Harvard, Vancouver, ISO, and other styles
25

Rodríguez, Lomuscio Juan Pablo. "Realidad Aumentada para el Aprendizaje de Ciencias en Niños de Educación General Básica." Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104314.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Cánovas, Barroso Rodrigo Antonio. "Estructuras Comprimidas para Árboles de Sufijos." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/102426.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Abeliuk, Kimelman Andrés Jonathan. "Arboles de Sufijo Comprimidos para Textos Altamente Repetitivos." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/104369.

Full text
Abstract:
Ingeniero Civil en Computación<br>El árbol de sufijos es una de las estructuras más importantes que se han creado para el manejo de cadenas de caracteres. Esta estructura permite encontrar eficientemente las ocurrencias de un patrón, en tiempo proporcional al largo del patrón. Adicionalmente soporta operaciones para resolver problemas complejos sobre una secuencia. Esta estructura tiene muchas aplicaciones en variadas áreas de la investigación , destacándose en la bioinformática, donde los recientes avances tecnológicos han permitido recolectar grandes colecciones de secuencias de ADN. La implementación clásica se vuelve impracticable para grandes volúmenes de información dado que ocupan demasiado espacio, que siempre muchas veces mayor que el texto mismo. Luego, no pueden ser almacenados en memoria principal, lo que en la práctica significa un aumento importante del tiempo de respuesta. Este problema es la principal motivación por la cual se buscan nuevas representaciones comprimidas de esta estructura, dando lugar a los árboles de sufijos comprimidos. Estos contienen la misma información que los árboles de sufijos pero ocupan un espacio considerablemente menor. Existen variadas propuestas teóricas para representar un árbol de sufijos comprimido, que ofrecen espacios y tiempos diferentes. En la práctica, dos estructuras destacan por sobre las demás. La primera fue propuesta por Sadakane e implementada por Välimäki et al. Esta estructura soporta la mayoría de las operaciones de navegación en tiempo constante, pero en la práctica requiere entre 25 y 35 bits por símbolo. La segunda fue propuesta por Fischer et al. e implementada por Cánovas, incorporando variantes y nuevas ideas para todas las estructuras que componen el árbol de sufijos comprimido propuesto por ellos. Una de estas variantes resulta ser superior a la implementación de Sadakane tanto en espacio como en tiempo, utilizando alrededor de 8 a 12 bits por símbolo. Dado que secuencias de ADN relacionadas son altamente similares, por ejemplo dos genomas humanos son muy parecidos, las colecciones pueden ser tratadas como un gran texto que contiene cadenas altamente similares. En este trabajo se propone e implementa una nueva variante del árbol de sufijos comprimido de Fischer et al, optimizada para textos altamente repetitivos. Se reemplazan y/o modifican cada una de las estructuras que componen el árbol por nuevas que presentan mayor compresión en textos repetitivos. El resultado más importante consiste en crear una nueva estructura inspirada en una técnica de compresión basada en gramáticas, aplicable al árbol de sufijos comprimido, que con poco espacio extra acelera considerablemente las operaciones sobre el árbol. Finalmente, la variante se compara experimentalmente sobre textos altamente repetitivos y resulta ser superior a la implementación de Cánovas, tanto en tiempo como en espacio, ocupando entre 3 a 6 bits por símbolo.<br>Este trabajo ha sido parcialmente financiado por el Instituto Milenio de Dinámica Celular y Biotecnología (ICDB) y el proyecto Fondecyt 1-080019
APA, Harvard, Vancouver, ISO, and other styles
28

Cortina, Parajón Raquel. "El Método de Neville : un enfoque basado en computación de altas prestaciones." Doctoral thesis, Universidad de Oviedo, 2008. http://hdl.handle.net/10803/11138.

Full text
Abstract:
En esta memoria se ha llevado a cabo un trabajo original sobre las prestaciones de varios algoritmos organizados por bloques para aplicar la eliminación de Neville sobre un sistema de ecuaciones lineales (Ax=b) en un computador paralelo, utilizando el paradigma de paso de mensajes y distintas métricas que nos han permitido analizar las prestaciones de los algoritmos estudiados. La eliminación de Neville es un procedimiento alternativo a la eliminación de Gauss para transformar una matriz cuadrada A en una matriz triangular superior. Estrictamente hablando, la eliminación de Neville hace ceros en una columna de A añadiendo a cada fila un múltiplo de la fila previa. Esta estrategia se ha probado especialmente útil cuando se trabaja con cierto tipo de matrices, como por ejemplo, las totalmente positivas o las signo-regulares. Una matriz se dice totalmente positiva si todos sus menores son no negativos. Este tipo de matrices aparecen en muchas ramas de la ciencia, como por ejemplo en, Matemáticas, Estadística, Economía, o en Diseño Geométrico Asistido por Ordenador. En esta línea, los trabajos de un amplio número de autores han mostrado en los últimos años que la eliminación de Neville es una alternativa interesante a la de Gauss para cierto tipo de estudios.En el desarrollo de algoritmos paralelos para resolver problemas de Algebra Lineal Numérica la organización por bloques se muestra como la más eficiente para obtener el máximo provecho de las máquinas actuales, tanto en cuanto al buen uso de la jerarquía de memorias en máquinas con memoria compartida como al aprovechamiento del paralelismo explícito en máquinas de memoria distribuida. Con esta organización se suelen obtener algoritmos eficientes y escalables. Dos librerías bien conocidas como Lapack y ScaLapack utilizan como principal estrategia de diseño de sus algoritmos paralelos la organización por bloques. Para poder llegar a códigos óptimos es necesario definir los parámetros del problema y hacer un análisis profundo del comportamiento de los algoritmos desarrollados en función de las propiedades de éstos. Este análisis debe tener en cuenta el comportamiento de los algoritmos en cuanto a tiempo de ejecución, speedup/eficiencia y escalabilidad. Cuando los algoritmos se organizan por bloques es especialmente importante la relación entre el tamaño del bloque y las prestaciones en cada una de las métricas citadas. El tamaño de los bloques puede influir notablemente en las prestaciones. Es importante conocer como influye en cada una de ellas, si se desea un tipo de algoritmo concreto que optimice las prestaciones en una u otra métrica, o en el conjunto de todas ellas. En nuestro trabajo proponemos una organización del algoritmo de eliminación de Neville para computadores que sigan el modelo de paso de mensajes, y llevamos a cabo un análisis general basado en tres métricas: tiempo, speedup/eficiencia y escalabilidad. Este análisis se considera para las distribuciones por bloques más usuales de los datos, distribuciones unidimensionales (por filas y columnas) y bidimensionales, y se compara con el caso experimental en dos tipos de máquinas representativas del modelo de paso de mensajes: una red de estaciones de trabajo y un multicomputador, para lo que previamente se ha modelizado el comportamiento de ambos entornos.
APA, Harvard, Vancouver, ISO, and other styles
29

Acevedo, Martínez Liesner. "Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7107.

Full text
Abstract:
Esta tesis tiene el objetivo de estudiar aplicaciones de la transformada wavelet discreta (DWT) al álgebra lineal numérica. Se hace un estudio de las distintas variantes de paralelización de la DWT y se propone una nueva variante paralela, en memoria distribuida, con distribuciones de datos orientadas a bloques de matrices, como la 2DBC de ScaLAPACK. La idea es que la DWT en muchos casos es una operación intermedia y debe ajustarse a las distribuciones de datos que se estén usando. Se define y demuestra una forma de calcular exactamente la cantidad de elementos que debe comunicar cada procesador para que se puedan calcular de forma independiente todo los coeficientes wavelet en una cantidad de niveles determinada. Finalmente se propone una variante específica, más eficiente, para el cálculo de la DWT-2D cuando se aplica como paso previo a la resolución de un sistema de ecuaciones distribuido 2DBC, considerando una permutación de las filas y columnas del sistema que minimiza las comunicaciones. Otro de los aportes de esta tesis es el de considerar como un caso típico, el cálculo de la DWT-2D no estándar en matrices dispersas, proponemos algoritmos para realizar esta operación sin necesidad de construir explícitamente la matriz wavelet. Además tenemos en cuenta el fenómeno de rellenado (fill-in) que ocurre al aplicar la DWT a una matriz dispersa. Para ello exploramos con los métodos de reordenamiento clásicos de grado mínimo y de reducción a banda. De forma adicional sugerimos como pueden influir esos reordenamientos a la convergencia de los métodos multimalla ya que ocurre una redistribución de la norma de la matriz hacia los niveles inferiores de la representación multi-escala, lo que garantizaría una mejor compresión. El campo de aplicación de la transformada wavelet que se propone es la resolución de grandes sistemas de ecuaciones lineales.<br>Acevedo Martínez, L. (2009). Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7107<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
30

Rozas, Muñoz Juan Pablo. "Rediseño de la Interfaz Cliente/Colaborador de la Plataforma Workflow de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile." Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/104567.

Full text
Abstract:
El objetivo general del presente trabajo es diseñar una interfaz usable para las tareas de Cliente/Colaborador de la Plataforma Workflow de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile, que permita la masificación de su uso al interior de esta institución. Desde hace años la FCFM ha venido desarrollando una fuerte tarea de cambio y renovación de sus mecanismos en lo que administración docente se refiere. Con el objetivo de lograr esto, a través de su Área de Infotecnologías (ADI), ha desarrollado una plataforma Web basada en el enfoque Workflow, la cual constituye una poderosa herramienta de modelamiento y automatización de flujos de trabajo que permite la eliminación de los formularios impresos. La metodología de trabajo para el rediseño abarcó 5 etapas; una evaluación de la situación actual, análisis de requisitos, diseño, prototipado y una nueva evaluación, siguiendo el Modelo de Proceso de la Ingeniería de la Usabilidad. La interfaz actual fue evaluada mediante un test de usabilidad, con lo cuál se obtuvieron los requerimientos para el rediseño de ésta. Luego de formular el problema de diseño y en un proceso iterativo, se crearon los prototipos, los cuales fueron validados mediante distintos métodos de evaluación de usabilidad. El resultado final es el diseño de una interfaz, la cual da a cada uno de los perfiles de usuario de la plataforma, la posibilidad de sacar un mayor provecho de las funcionalidades del sistema. La metodología utilizada en este trabajo ha sido muy bien evaluada por el ADI, quienes han tomado la decisión de aplicarla a escala en los futuros desarrollos.
APA, Harvard, Vancouver, ISO, and other styles
31

Pérez, Salazar Sebastián Walter. "El problema de la degenerancia de grafos en Congested Clique." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/142770.

Full text
Abstract:
Ingeniero Civil Matemático<br>La computación distribuida, rama de las ciencias de la computación, se focaliza en estu- diar sistemas distribuidos, tales como internet, redes sociales o protocolos de mensajería. La información se encuentra distribuida entre las distintas entidades que conforman el sistema y el objetivo último es resolver algún problema global. Para ello las distintas entidades se comunican mediante los canales de la red hasta que encuentran la solución. Esta memoria comienza estudiando el problema de la degenerancia de un grafo en los modelos de computación distribuida UCAST y BCAST, donde la degenerancia de un grafo G se define como el máximo grado mínimo de un subgrafo F de G. Los modelos distribuidos UCAST y BCAST corresponden a redes completas de n individuos, los cuales se comunican de manera síncrona por los canales de la red en rondas. En el primer caso, cada individuo por ronda puede enviar diferentes mensajes por cada uno de sus canales. En el segundo caso, cada individuo por ronda envía a través de sus canales el mismo mensaje. En general, se suele decir que BCAST es una restricción de UCAST. Primero, se construye un protocolo aleatorio en el modelo UCAST que calcula una (1 + ε)- aproximación de la degenerancia en O(log n) rondas con mensajes de largo O(log n). En el modelo BCAST se demuestra que el problema de calcular la degenerancia es difícil en 1 ronda. Más específicamente, se demuestra que todo protocolo aleatorio de 1 ronda que calcule exactamente la degenerancia debe enviar un mensaje de largo Ω(n). En el mismo modelo, se construye un protocolo aleatorio de 2 rondas con mensajes de largo O(log 2 n) que calcula una (1 + ε)-aproximación de la degenerancia para grafos α-densos. Finalmente, se construye un protocolo determinista que calcula una (2 + ε)-aproximación de la degenerancia en O(log n) rondas con mensajes de largo O(log n). Como segunda parte de este trabajo, y motivado por el protocolo en BCAST que calcula una (2 + ε)-aproximación de la degenerancia, se estudia la siguiente dinámica sobre grafos: Durante cada iteración, eliminar todos los vértices que tengan grado a lo más el grado prome- dio del grafo +1. Se conjetura que para todo grafo G de n vértices la dinámica toma O(log n) iteraciones en vaciar el grafo. Se aborda el problema estudiando clases de grafos tales como: bosques, grafos planares, grafos con degenerancia acotada y grafos unión disjunta de cliques. Finalmente, se estudian diversos problemas en el modelo BCAST. Se comienza estudiando el problema de calcular el conjunto independiente maximal con un vértice fijo. Se prueba que el problema es difícil en 1 ronda y luego se contruye un protocolo que en O(log n) rondas, usando mensaje de largo O(log n), calcula el conjunto independiente. Se estudia también el problema de calcular el número cromático de un grafo. Se prueba que el problema resulta difícil en 1 ronda. Concluyendo el capítulo, se estudian los problemas de encontrar conjuntos dominantes de tamaño k y conjuntos -dominantes de tamaño k, en ambos casos se demuestra que los problemas son difíciles en 1 ronda.<br>Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1130061
APA, Harvard, Vancouver, ISO, and other styles
32

Orellana, Marcial Luz Marina. "Uso de internet por jóvenes universitarios de la Facultad de Ciencias Sociales de la Universidad Nacional Federico Villarreal." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2012. https://hdl.handle.net/20.500.12672/2555.

Full text
Abstract:
El objetivo de esta investigación fue analizar el uso de internet en tres escuelas profesionales de la Facultad de Ciencias Sociales de la Universidad Nacional Federico Villarreal. En el marco teórico se tomó como referencia la teoría de Usos y Gratificaciones, que señala el uso de un medio para satisfacer ciertas necesidades del usuario. En este caso se investigó las características en el uso de internet por parte de los jóvenes universitarios que pertenecen a Sociología, Trabajo Social y Ciencias de la Comunicación.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
33

Trujillo, Rasúa Rafael Arturo. "Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7108.

Full text
Abstract:
En diversas aplicaciones prácticas cada vez es más frecuente la presencia de problemas de optimización que involucran variables que deben tomar valores discretos. Debido a su naturaleza combinatoria, los problemas de optimización discretos presentan por lo general una complejidad computacional exponencial, y por tanto son mucho más complicados de resolver que los problemas continuos. El trabajo descrito en esta tesis se ha centrado en el estudio y solución al problema de encontrar el punto de una retícula más cercano a un punto dado. Dicho problema puede originarse, entre otras múltiples aplicaciones prácticas, en la detección de señales en sistemas de comunicaciones inalámbricos MIMO (Multiple Input - Multiple Output). Los problemas de optimización discretos no pueden abordarse con métodos de convergencia rápida basados en derivadas. En su lugar, la solución se obtiene mediante métodos como Ramificación y Poda, programación dinámica y búsquedas heurísticas. El trabajo presentado ha consistido, en primer lugar, en realizar un amplio estudio del estado del arte de los métodos de Búsqueda Directa (que son métodos de optimización no basados en derivadas) y de los métodos Sphere-Decoding (pertenecientes al esquema de Ramificación y Poda). En segundo lugar, se ha abordado la paralelización de estos métodos dirigida a distintas arquitecturas, bien sea arquitecturas con memoria compartida, memoria distribuida y esquemas híbridos; además de explorar, en el caso de la Búsqueda Directa, variantes asíncronas de paralelización. Adicionalmente se proponen mejoras en los propios algoritmos secuenciales. Se diseñaron e implementaron diversas variantes de métodos de Búsqueda Directa, las cuales tuvieron buenos resultados en la resolución del Problema Inverso Aditivo de Valores Singulares, pues lograron converger y obtener mejor precisión en la solución que los métodos basados en derivadas tipo Newton.<br>Trujillo Rasúa, RA. (2009). Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7108<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
34

Navarro, Mateu Diego. "Procesos naturales aplicados a la arquitectura mediante computación: ciencia Evo-Devo y modelado algorítmico a través de Grasshopper." Doctoral thesis, Universitat Internacional de Catalunya, 2017. http://hdl.handle.net/10803/552427.

Full text
Abstract:
Aplicación de algoritmos evolutivos y modelado algoritmico (a través de Grasshopper y otros add-ons) siguiendo los recientes descubrimientos sobre la ciencia Evo-Devo (evolutionary development) con el fin de hallar formas diferentes de proyectar arquitectura y gestionar la complejidad de un contexto cambiante y globalizado (contectado y en constante emisión y recopilación de información). Analisis de los procesos computacionales que han permitido este hecho, así como la aplicación del concepto paramétrico en la arquitectura y su relación con lo natural a lo largo de la historia.
APA, Harvard, Vancouver, ISO, and other styles
35

Ozimica, Gacitúa Nicolás Eugenio. "Cálculo de las Trayectorias de Partículas en la Atmósfera Mediante Cálculos Paralelizados Haciendo Uso Intensivo de GPU." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103833.

Full text
Abstract:
El cálculo de la trayectoria de partículas en la atmósfera es una actividad abordada desde hace mucho tiempo, tomando en cuenta un enfoque clásico del uso de los computadores, en el cual se utilizan sus recursos como Procesador Central (CPU) y Memoria RAM. Este enfoque, que ha servido para alcanzar los logros actuales, con predicciones bastante acertadas, aún adolece de problemas claves y en cierta medida irresolubles, que se ven acentuados cuando los procesos se hacen más complejos, ya sea incorporando muchas partículas, o tomando en cuenta modelos de desplazamiento más realistas. El presente trabajo aborda un enfoque totalmente nuevo, el cual hace uso de una componente física de los computadores llamada “Tarjeta Gráfica”, la cual cuenta con su propia unidad de procesamiento gráfico llamada GPU por sus siglas en inglés. Esta componente, gracias a su gran cantidad de núcleos, ofrece la posibilidad de realizar paralelamente entre sí todos, o una parte de los cálculos que le son asignados, de una manera mucho más potente que lo conseguido en la actualidad al hacer uso solamente de CPU. Este problema es abordado mediante la implementación de un programa en dos versiones: una para funcionar exclusivamente en CPU y la otra para hacer uso de GPU en los cálculos. De esta manera se puede contar con un método directo para comparar el desempeño de estos dos enfoques, contrastarlos entre sí, y deducir los casos en que uno supera al otro. El principal insumo en la comparación de estos cálculos es la información del pronóstico del viento. El programa fue aplicado a una situación real: la erupción del Volcán Chaitén, para un día cuyos datos se poseían de antemano. Los resultados obtenidos fueron graficados y comparados con una imagen satelital correspondiente al mismo día simulado, siendo posible comprobar la alta similitud entre ellas. El tiempo de cálculo empleado por la versión que funciona en GPU supera en algunos casos en más de doscientas veces lo que tarda su contraparte CPU, sin afectar en gran medida la exactitud de los cálculos. Esto permite comprobar efectivamente que las GPU superan ampliamente el desempeño de las CPU, cuando el problema abordado es altamente paralelizable. Este es un tema que no está en absoluto cerrado, por cuanto son muchos los caminos donde seguir explorando las ventajas y desventajas del uso de GPU para estos cálculos. Por ejemplo se puede ver cómo funcionan las GPU incorporando procesos físicos más complejos para el cálculo de los desplazamientos de las partículas, o se puede considerar algunas propiedades físicas de estas partículas, como lo es la masa por ejemplo.
APA, Harvard, Vancouver, ISO, and other styles
36

Lozano, Rubio Martín Antonio. "Sistema Experto en la Selección y Configuración de Herramientas Específicas para los Requerimientos Mineros." Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104259.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

DO, CARMO BORATTO MURILO. "Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/48529.

Full text
Abstract:
El presente trabajo se inscribe en el campo de la computación paralela y, más en concreto, en el desarrollo y utilización de modelos computacionales en arquitecturas paralelas heterogéneas para la resolución de problemas aplicados. En la tesis abordamos una serie de problemas que están relacionados con la aplicación de la tecnología en el ámbito de las explotaciones agrícolas y comprenden: la representación del relieve, el manejo de información climática como la temperatura, y la gestión de recursos hídricos. El estudio y la solución a estos problemas en el área en la que se han estudiado tienen un amplio impacto económico y medioambiental. Los problemas basan su formulación en un modelo matemático cuya solución es costosa desde el punto de vista computacional, siendo incluso a veces inviable. La tesis consiste en implementar algoritmos paralelos rápidos y eficientes que resuelven el problema matemático asociado a estos problemas en nodos multicore y multi-GPU. También se estudia, propone y aplican técnicas que permiten a las rutinas diseñadas adaptarse automáticamente a las características del sistema paralelo donde van a ser instaladas y ejecutadas con el objeto de obtener la versión más cercana posible a la óptima a un bajo coste. El objetivo es proporcionar un software a los usuarios que sea portable, pero a la vez, capaz de ejecutarse eficientemente en la ordenador donde se esté trabajando, independientemente de las características de la arquitectura y de los conocimientos que el usuario pueda tener sobre dicha arquitectura.<br>Do Carmo Boratto, M. (2015). Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48529<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
38

Augsburger, Becerra Marcel André. "Computación como disciplina en la Educación Media Técnico Profesional crítica, fundamentos y propuesta." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144708.

Full text
Abstract:
Magíster en Ciencias, Mención Computación<br>La enseñanza de los fundamentos de la computación ha comenzado a ser incorporada como parte del currículum escolar obligatorio en todo el mundo. En Chile se está reflejando ese proceso con la incorporación reciente de las especialidades de Programación, y Conectividad y Redes en la Educación Media Técnico Profesional (EMTP). El Ministerio de Educación de Chile (MINEDUC) publicó documentos con los lineamientos de estas especialidades. Estos lineamientos muestran un sesgo funcional, dando escasa importancia a la enseñanza de los fundamentos de la computación como ciencia. Esta forma de aprendizaje impide al estudiante adaptarse a nuevos escenarios y continuar perfeccionándose. En este contexto, esta tesis aborda el estudio y análisis de cómo se está abordando en Chile la enseñanza de la especialidad de Programación en la EMTP en perspectiva comparativa con la experiencia internacional. La metodología contempló el levantamiento del estado del arte nacional e internacional de la enseñanza de la disciplina de computación en la educación, particularmente en la EMTP y en sus niveles educativos equivalentes internacionales; el delineamiento de un marco teórico que argumenta la computación en la EMTP como disciplina científica y no sólo como herramienta técnica; y el desarrollo de una propuesta general de plan y programa para formación de alumnos y profesores de EMTP en el área. Se desprende de esta investigación que hay un gran déficit de personas con habilidades computacionales, particularmente en el área de programación; que las habilidades técnicas que se están requiriendo en el área de programación no están en los programas educativos para la especialidad de Programación en la EMTP; y que la enseñanza de los fundamentos de la computación como ciencia ha comenzado a ser incorporada a nivel mundial. La principal conclusión es que en este contexto es muy relevante reformar los programas de educación para lograr formar buenos programadores, y darles una base para que puedan seguir desarrollándose. Se proponen y desarrollan sugerencias en metodologías de enseñanza, objetivos de aprendizaje alternativos, herramientas y contenidos, las que podrían ser incorporadas de acuerdo a las realidades locales de infraestructura, profesorado y alumnado.
APA, Harvard, Vancouver, ISO, and other styles
39

Arroyo, García Hernán Enrique. "Búsqueda en Texto Mediante un Índice Comprimido de Q-Gramas." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103854.

Full text
Abstract:
No autorizado por el autor para ser publicada a texto completo<br>La cantidad de datos disponibles crece de forma dramática cada día. Esto trae consigo la necesidad de poder manejar éstos datos de forma adecuada, de manera de poder acceder a estos de forma eficiente y al mismo tiempo ahorrar espacio de almacenamiento. En particular, para manejar grandes cantidades de texto una herramienta clave son los índices de texto, y en el contexto de este trabajo los índices comprimidos, los cuales no sólo responden consultas de forma rápida sino que también almacenan sus datos y el texto en forma eficiente. El objetivo general del presente trabajo fue desarrollar un índice comprimido basado en listas de ocurrencias de los q-gramas del texto y comprimir este último. Se desea comparar la eficacia de este índice con los auto-índices ya desarrollados en el sitio Pizza&Chili (http://pizzachili.dcc.uchile.cl). Un índice invertido de q-gramas permite encontrar patrones en un texto. Para tal efecto las consultas se dividen en dos etapas. En la primera etapa se seleccionan las regiones del texto (llamadas bloques) donde ocurren todos los q-gramas del patrón y por lo tanto éste podría encontrarse. En la segunda etapa se verifica si efectivamente el patrón se encuentra en los bloques que fueron seleccionados. Además es necesario almacenar el texto de forma independiente. En la implementación realizada se mantiene el texto dividido en bloques comprimidos, los cuales se almacenan en memoria secundaria. Esto permite utilizar menos espacio y acceder a los bloques individualmente. Se implementaron diversos algoritmos para comprimir el índice y realizar consultas. Además se diseñaron y ejecutaron experimentos para medir el rendimiento de las distintas variantes obtenidas al combinar los diferentes algoritmos. En base a los resultados obtenidos se seleccionaron los algoritmos que presentaron mejor rendimiento tanto en velocidad como en niveles de compresión alcanzados. De la misma forma se implementaron y midieron experimentalmente alternativas para comprimir y buscar en el texto. Finalmente se comparó el rendimiento de las variantes seleccionadas del índice frente a los índices competitivos presentes en el sitio Pizza&Chili. Los resultados indican que el índice tiene un rendimiento competitivo para búsquedas de patrones pequeños.
APA, Harvard, Vancouver, ISO, and other styles
40

Cárdenas, Cáceres Pablo. "Desarrollo de un robot móvil y una plataforma de interacción tangible para la inducción a la programación en ciencias de la computación de niños en edad pre-escolar." Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/10176.

Full text
Abstract:
En el campo de la programación, la interacción hombre-máquina está dominada por interfaces visuales que generalmente usan un teclado, un ratón y una pantalla haciendo que, para poder programar, se deban tener conocimientos previos de informática. La necesidad de aprender a programar en un mundo profesional cada vez más dependiente de la tecnología se ha incrementado y, por ello, en diferentes países su enseñanza se da desde edades tempranas. En contraste, en el Perú, el primer contacto con el campo de la programación se inicia mayormente en la etapa universitaria con dificultades en su aprendizaje. Se han planteado diferentes iniciativas como “Programa Una Laptop por Niño” en el que se distribuyeron kits de robótica Wedo de la marca LEGO Education; sin embargo, estos no son fabricados en la región por lo que los costos de adquisición son altos y que, además, por la complejidad de su uso, está orientado a niños de secundaria. Todo ello se refleja en un bajo índice de introducción a la programación de niños menores en el Perú. En otros países existen diferentes investigaciones que proponen el uso de la programación tangible, esto es, que el código sea palpable en lugar de ser parte de un mundo virtual en una pantalla de computadora, pero en muchos casos omiten alguna de las etapas de la programación computacional: el análisis del problema, el diseño del algoritmo, la codificación, la prueba y la etapa de depuración. La presente tesis hace una revisión teórica de las investigaciones previas en el campo de programación tangible y presenta el desarrollo de una plataforma mecatrónica de bajo costo en comparación a las alternativas ya existentes. Esta plataforma está conformada por un tablero de programación (que se usa la electrónica más elemental posible), y un robot móvil (que utiliza algoritmos de control avanzado para garantizar la exactitud de sus movimientos). Finalmente se valida el funcionamiento del prototipo mecatrónico mediante la comparación de datos obtenidos en el modelo simulado y el real.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
41

Torres, Serrano Erik. "Técnicas de monitorización y diferenciación de servicios para la asignación de recursos en entornos de computación Grid, en base a indicadores de nivel de servicio." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7768.

Full text
Abstract:
El fortalecimiento de las infraestructuras de computación Grid, como plataforma para el acceso a recursos de cómputo y de almacenamiento en forma de servicios en Internet, ha dado lugar a una nueva necesidad: vincular las solicitudes de los usuarios con los servicios más apropiados, con el objetivo de mejorar la eficiencia de utilización de los recursos que forman parte del Grid, a la vez que mejorar las prestaciones de los trabajos ejecutados en el mismo. Esta necesidad se traduce, en la práctica, en la demanda de nuevos mecanismos de planificación de trabajos y de gestión de recursos, que permitan dotar a las infraestructuras Grid con nuevas estrategias para proporcionar niveles de servicio diferentes a diferentes perfiles de usuarios, proyectos y aplicaciones, y todo ello sobre la base de los requerimientos de calidad de servicio (Quality of Service o QoS) de cada perfil, formalizados en un contrato de nivel de servicio (Service Level Agreements o SLA). Por estas razones, proporcionar QoS en entornos de computación Grid es un área de investigación muy activa, a la vez que muy importante para la evolución del Grid hacia una infraestructura de propósito general que soporte modelos de negocio complejos. Sin embargo, a pesar de los avances en las técnicas de planificación y de gestión de recursos, el soporte para QoS en entornos de computación Grid es todavía muy limitado y, hasta el momento, no existe una solución definitiva para el problema. En este trabajo proponemos un nuevo modelo para la asignación de recursos en el Grid, en base a requerimientos de QoS. Como parte de este modelo, los servicios Grid son evaluados periódicamente a través de casos de prueba representativos, que son ejecutados en los recursos y que sirven para determinar la capacidad de los mismos para funcionar con unas prestaciones y una disponibilidad determinadas. A la vez, los recursos deben ser continuamente monitorizados para conocer su estado.<br>Torres Serrano, E. (2010). Técnicas de monitorización y diferenciación de servicios para la asignación de recursos en entornos de computación Grid, en base a indicadores de nivel de servicio [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7768<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
42

Kreft, Carreño Sebastián Andrés. "Auto-Índice de Texto Basado en LZ77." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/102454.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

De, Giusti Laura Cristina. "Mapping sobre arquitecturas heterógenas." Editorial de la Universidad Nacional de La Plata (EDULP), 2011. http://hdl.handle.net/10915/18372.

Full text
Abstract:
Entre todas las ideas esparcidas por la Ciencia de la Computación en los últimos años, pocas han transformado el área de manera tan profunda como la computación paralela. Virtualmente todos los aspectos se vieron afectados, y se generó un gran número de conceptos nuevos. Desde la Arquitectura de Computadoras hasta los Sistemas Operativos, desde los Lenguajes de Programación y Compiladores hasta Bases de Datos e Inteligencia Artificial, y desde la Computación numérica hasta las Combinatorias, cada rama sufrió un renacimiento.<br>Tesis doctoral de la Facultad de Informática (UNLP). Grado alcanzado: Doctor en Ciencias Informáticas. Director de tesis: Guillermo Simari; co-director de tesis: Emilio Luque y Marcelo Naiouf.
APA, Harvard, Vancouver, ISO, and other styles
44

Alonso, Ábalos José Miguel. "Computación Avanzada en Problemas Estáticos y Dinámicos de Gran Dimensión: Aplicación al Cálculo de Estructuras." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/61974.

Full text
Abstract:
[EN] The work implemented in this thesis is concerned with the application of High Performance Computing, Grid technologies and Cloud Technologies to the static and dynamic linear analysis of building and civil engineering structures by means of the finite element method. Thanks to the efficiency of the current numerical methods, embedded in many public domain numerical libraries, and to the availability of communication and synchronization libraries among the processing elements, either by message passing or by shared memory, the application of High Performance Computing to the structural computation has allowed us to carry out a rigorous and realistic analysis of large dimension and complexity structures, with reasonably reduced response times. Besides using state-of-the-art parallel numerical libraries (devoted to the solution of systems of linear equations by means of direct methods with MUMPS, PaStiX and PARDISO or iterative methods with PETSc and hypre or the resolution of the generalized eigenvalue problem with SLEPc), the multilevel parallel programming paradigm has been employed, which combines the development of algorithms using MPI and OpenMP in order to ensure the portability and to obtain the best performance in different operating systems, such as Linux and Windows, on different parallel computational platforms. The linear static calculation has been carried out through of the Stiffness Method where all its different stages have been parallelised. In case of structural dynamics, the second order dynamic equation has been solved by means of the parallelization of several direct time integration methods, as well as through parallel modal analysis techniques, modal superposition time history and response spectrum analysis. In the case of the latter analysis, numerous modal combination methods have been parallelized, accompanied by different directional combination techniques and distinct alternatives that try to provide us with sign of the results. With the aim that the above mentioned HPC-based application could be at the disposal of a wide community of architects and structural engineers, Grid and Cloud services have been implemented and deployed. They offer a secure, reliable and high throughput structural analysis under a service oriented architecture model. On the one hand, the Grid service integrates components, such as GMarte, for the task metascheduling, the results retrieval and the failure tolerance on Grid platforms. On the other hand, the Cloud service incorporates the developments of the European VENUS-C project for its deployment on Microsoft Azure infrastructure or on-premise Cloud platform managed by COMPSs. The competitiveness demonstrated by the structural simulator in its response times, even when launched in a sequential approach, with regard to other well-known software packages, has given place to its incorporation in different software applications. From a research point of view, it is part of a structural optimization system in collaboration with the Continuous Medium Mechanics and Theory of Structures Department (DMMCTE) of the UPV. In a professional environment, the simulator has been incorporated into two commercial applications. First of all, it is one of the three components of Architrave, a software system for the the static and dynamic structural design and analysis, developed by the UPV and with more than 3550 users, equipped with an attractive graphical user interface that is distributed by the Preference company. Professionally, Architrave has been downloaded from 22 countries. Academically, it is being used by students and teachers belonging to 54 universities from 8 different countries. Additionally, the Preference company has incorporated the structural simulator static version to its PrefSuite product, a worldwide commercialized software package in the field of metallic carpentry and 3D structural analysis of curtain walls.<br>[ES] El trabajo realizado en esta tesis doctoral ha consistido en la aplicación de la Computación de Altas Prestaciones, las Tecnologías Grid y las Tecnologías Cloud al cálculo estático y dinámico lineal de estructuras de edificación e ingeniería civil mediante el método de los elementos finitos. Gracias a la eficiencia de los métodos numéricos actuales, plasmados en librerías numéricas de dominio público, y a la disponibilidad de librerías de comunicación y sincronización entre los elementos de proceso, bien sea mediante paso de mensajes o por memoria compartida, la aplicación de la Computación de Altas Prestaciones al cálculo estructural ha permitido llevar a cabo un análisis riguroso y realista de estructuras de gran dimensión y complejidad, con unos tiempos de respuesta razonablemente reducidos. Además de utilizar librerías numéricas paralelas de dominio público (dedicadas a la resolución de sistemas de ecuaciones lineales mediante métodos directos con MUMPS, PaStiX y PARDISO o métodos iterativos con PETSc y hypre o la resolución del problema de valores propios generalizado con SLEPc) se ha empleado el paradigma de programación paralela multinivel, el cual combina el desarrollo de algoritmos mediante MPI y OpenMP, a fin de garantizar la portabilidad y obtener las mejores prestaciones en distintos sistemas operativos, como Linux y Windows, sobre diferentes plataformas computacionales paralelas. El cálculo estático se ha llevado a cabo mediante el Método de la Rigidez, donde se han paralelizado las diferentes etapas que lo componen. En el caso del análisis dinámico, la ecuación dinámica de segundo orden se ha resuelto mediante la paralelización de numerosos métodos de integración directa, así como mediante técnicas de análisis modal, superposición modal y análisis modal espectral. En el caso concreto del análisis modal espectral, se han paralelizado un amplio número de métodos de combinación modal de los resultados, acompañados de distintas técnicas de combinación direccional y diferentes alternativas que intentan proporcionar el signo de los resultados. Con el objetivo de que dicha aplicación paralela desarrollada pueda estar a disposición de una amplia comunidad de arquitectos e ingenieros estructurales, se han implementado y desplegado sendos servicios Grid y Cloud que ofrecen un análisis estructural por internet seguro, fiable y de alta productividad bajo una arquitectura orientada a servicio. Dichos servicios integran componentes, como GMarte, para la planificación de tareas, la recogida de resultados y la tolerancia a fallos en plataformas Grid o incorporan los desarrollos del proyecto europeo VENUS-C, para el despliegue del servicio sobre Microsoft Azure o sobre una infraestructura Cloud ''on-premise'' gestionada por COMPSs. La competitividad demostrada por el simulador estructural en sus tiempos de respuesta, inclusive a nivel secuencial, con respecto a otros paquetes software disponibles y ampliamente utilizados, ha dado lugar a su incorporación en diferentes aplicaciones. Bajo un entorno de carácter investigador, forma parte de un sistema de optimización estructural, en colaboración con el departamento de Mecánica de los Medios Continuos y Teoría de Estructuras (DMMCTE) de la UPV. En un ámbito profesional, el simulador se ha incorporado en dos aplicaciones comerciales. Por un lado en Architrave, una aplicación de cálculo estático y dinámico estructural, desarrollada por la UPV y con más de 3550 usuarios, dotada de un atractivo interfaz gráfico que se distribuye por parte de la empresa Preference. A nivel profesional, Architrave se ha descargado en 22 países y cuenta, a nivel académico, con alumnos y profesores de 54 universidades de 8 países diferentes. Adicionalmente, la empresa Preference ha incorporado la versión estática del simulador a su producto PrefSuite, un paquete software comercializado a nivel mundial en el ámbito de la carpint<br>[CAT] El treball realitzat en aquesta tesi doctoral ha consistit en l'aplicació de la Computació d'Altes Prestacions, les Tecnologies Grid i les Tecnologies Cloud al càlcul estàtic i dinàmic lineal d'estructures d'edificació i enginyeria civil mitjançant el mètode dels elements finits. Gràcies a l'eficiència dels mètodes numèrics actuals, plasmats en llibreries numèriques de domini públic, i a la disponibilitat de llibreries de comunicació i sincronització entre els elements de procés, bé siga mitjançant pas de missatges o per memòria compartida, l'aplicació de la Computació d'Altes Prestacions al càlcul estructural ha permès dur a terme una anàlisi rigorosa i realista d'estructures de gran dimensió i complexitat, amb uns temps de resposta raonablement reduïts. A més d'utilitzar llibreries numèriques paral·leles de domini públic (dedicades a la resolució de sistemes d'equacions lineals mitjançant mètodes directes amb MUMPS, PaStiX i PARDISO o mètodes iteratius amb PETSc i hypre o la resolució del problema de valors propis generalitzat amb SLEPc) s'ha emprat el paradigma de programació paral·lela multinivell, el qual combina el desenvolupament d'algorismes mitjançant MPI i OpenMP, a fi de garantir la portabilitat i obtenir les millors prestacions en diferents sistemes operatius, com Linux i Windows, sobre diferents plataformes computacionals paral·leles. El càlcul estàtic s'ha dut a terme mitjançant el Mètode de la Rigidesa, on s'han paral·lelitzat les diferents etapes que ho componen. En el cas de l'anàlisi dinàmica, l'equació dinàmica de segon ordre s'ha resolt mitjançant la paral·lelització de nombrosos mètodes d'integració directa, així com mitjançant tècniques d'anàlisi modal, superposició modal i anàlisi modal espectral. En el cas concret de l'anàlisi modal espectral, s'ha paral·lelitzat un ampli nombre de mètodes de combinació modal dels resultats, junt amb de diferents tècniques de combinació direccional i diferents alternatives que intenten proporcionar el signe dels resultats. Amb l'objectiu que aquesta aplicació paral·lela desenvolupada puga estar a la disposició d'una àmplia comunitat d'arquitectes i enginyers estructurals, s'han implementat i desplegat sengles serveis Grid i Cloud que ofereixen una anàlisi estructural per internet segur, fiable i d'alta productivitat sota una arquitectura orientada a servei. Aquests serveis integren components, com GMarte, per a la planificació de tasques, la recollida de resultats i la tolerància a fallades en plataformes Grid o incorporen els desenvolupaments del projecte europeu VENUS-C, per al desplegament del servei sobre Microsoft Azure o sobre una infraestructura Cloud 'on-premise'' gestionada per COMPSs. La competitivitat demostrada pel simulador estructural en els seus temps de resposta, inclòs a nivell seqüencial, pel que fa a altres paquets de programari disponibles i àmpliament utilitzats, ha donat lloc a la seua incorporació en diferents aplicacions. Sota un entorn de caràcter investigador, forma part d'un sistema d'optimització estructural, en col·laboració amb el departament de Mecànica dels Mitjans Continus i Teoria d'Estructures (DMMCTE) de la UPV. En un àmbit professional, el simulador s'ha incorporat en dues aplicacions comercials. D'una banda en Architrave, una aplicació de càlcul estàtic i dinàmic estructural, desenvolupada per la UPV i amb més de 3550 usuaris, dotada d'una atractiva interfície gràfica que es distribueix per part de l'empresa Preference. A nivell professional, Architrave s'ha descarregat en 22 països i compta, a nivell acadèmic, amb alumnes i professors de 54 universitats de 8 països diferents. Addicionalment, l'empresa Preference ha incorporat la versió estàtica del simulador al seu producte PrefSuite, un paquet software comercialitzat a nivell mundial en l'àmbit de la fusteria metàl·lica i el càlcul estructural en 3D de murs cortina.<br>Alonso Ábalos, JM. (2016). Computación Avanzada en Problemas Estáticos y Dinámicos de Gran Dimensión: Aplicación al Cálculo de Estructuras [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61974<br>TESIS<br>Premiado
APA, Harvard, Vancouver, ISO, and other styles
45

Campos, González María Carmen. "Implementación paralela de métodos iterativos para la resolución de problemas polinómicos de valores propios." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/86134.

Full text
Abstract:
The polynomial eigenvalue problem appears in many areas of scientific and technical computing. It can be seen as a generalization of the linear eigenvalue problem in which the equation P(lambda)x = 0, that defines the problem, involves a polynomial P(lambda), of degree d, in the parameter lambda (the eigenvalue), and d+1 matrix coefficients. In its turn, the polynomial eigenvalue problem is a particular case of the nonlinear eigenvalue problem, T(lambda)x = 0, in which T is a nonlinear matrix function. These problems appear in diverse areas of application such as acoustics, fluid mechanics, structure analysis, or photonics. This thesis focuses on the study of methods for the numerical resolution of the polynomial eigenvalue problem, as well as the adaptation of such methods to the most general nonlinear case. Mainly, we consider methods of projection, that are appropriate for the case of sparse matrices of large dimension, where only a small percentage of eigevalues and eigenvectors are required. The algorithms are studied from the point of view of high-performance computing, considering issues like (computational and memory) efficiency and parallel computation. SLEPc, Scalable Library for Eigenvalue Problem Computations, is a software library for the parallel solution of large-scale eigenvalue problems. It is of general purpose and can be used for standard and generalized problems, both symmetric and nonsymmetric, with real or complex arithmetic. As a result of this thesis, we have developed several solvers for polynomial an nonlinear eigenproblems, which have included in the last versions of this software. On one hand, we consider methods based on the linearization of the polynomial problem, that solves an equivalent linear eigenproblem of dimension several times the initial size. Among them, the TOAR method stands out, that repre- sents the search subspace basis in an efficient way in terms of memory, and is appropriate to handle the increase of dimension of the linear problem. The thesis also proposes specific variants for the particular case of symmetric matrices. In all these methods we consider several aspects to provide the implementations with robustness and flexibility, such as spectral transformations, scaling, and techniques of extraction. In addition to the methods of linearization, we propose methods of Newton type, such as the method of Jacobi-Davidson with deflation and the method of Newton for invariant pairs. Due to its characteristics, the latter is not usually employed as a proper method, but as a technique for refinement of the solutions obtained with another method. The previous methods can also be applied to the resolution of the nonlinear problem, using techniques like polynomial or rational interpolation, being necessary in some cases to adapt the algorithms. This thesis covers also these cases. For all the considered algorithms we have made parallel implementations in SLEPc, and have studied its numerical behaviour and its parallel performance in problems coming from real applications.<br>El problema polinómico de valores propios aparece en muchas áreas de la computación científica y técnica. Puede verse como una generalización del problema lineal de valores propios en el que la ecuación P(lambda)x=0, que define el problema, involucra un polinomio P(lambda), de grado d, en el parámetro lambda del autovalor, y d+1 coeficientes matriciales. A su vez, el problema polinómico de valores propios es un caso particular del problema no lineal de valores propios, T(lambda)x=0, en el que T es una función matricial no lineal. Estos problemas aparecen en diversas áreas de aplicación como acústica, mecánica de fluidos, análisis de estructuras, o fotónica. Esta tesis se centra en el estudio de métodos para la resolución numérica del problema polinómico de valores propios, así como la adaptación de dichos métodos al caso más general no lineal. Principalmente, se consideran métodos de proyección, que son apropiados para el caso de matrices dispersas de gran dimensión cuando se requiere solo un pequeño porcentaje de los valores y vectores propios. Los algoritmos se estudian desde el punto de vista de la computación de altas prestaciones, teniendo en consideración aspectos como la eficiencia (computacional y de memoria) y la computación paralela. SLEPc, Scalable Library for Eigenvalue Problem Computations, es una biblioteca software para la resolución de problemas de valores propios de gran dimensión en paralelo. Es de propósito general y puede usarse para problemas estándares y generalizados, simétricos y no simétricos, con aritmética real o compleja. Como fruto de esta tesis, se han desarrollado diversos solvers para problemas polinómicos y no lineales, los cuales se han incluido en las últimas versiones de este software. Por un lado, se abordan métodos basados en la linealización del problema polinómico, que resuelven un problema lineal equivalente de dimensión varias veces la del inicial. Entre ellos se destaca el método TOAR, que representa la base del subespacio de búsqueda de una forma eficiente en términos de memoria, y es adecuado para manejar el aumento de dimensión del problema lineal. La tesis también propone variantes específicas para el caso particular de matrices simétricas. En todos estos métodos se consideran diversos aspectos para dotar a las implementaciones de robustez y flexibilidad, tales como transformaciones espectrales, escalado, y técnicas de extracción. Además de los métodos de linealización, se proponen métodos de tipo Newton, como el método de Jacobi-Davidson con deflación y el método de Newton para pares invariantes. Por sus características, este último no suele utilizarse como un método en sí mismo sino como técnica de refinamiento de las soluciones obtenidas con otro método. Los métodos anteriores pueden aplicarse a la resolución del problema no lineal, utilizando técnicas como la interpolación polinómica o racional, siendo necesario en algunos casos adaptar los algoritmos. La tesis cubre también estos casos. Para todos los algoritmos considerados se han realizado implementaciones paralelas en SLEPc, y se ha estudiado su comportamiento numérico y sus prestaciones paralelas en problemas procedentes de aplicaciones reales.<br>El problema polinòmic de valors propis apareix en moltes àrees de la computació científica i tècnica. Pot veure's com una generalització del problema lineal de valors propis en el qual l'equació P(lambda)x=0, que defineix el problema, involucra un polinomi P(lambda), de grau d, en el paràmetre lambda de l'autovalor, i d+1 coeficients matricials. Al seu torn, el problema polinòmic de valors propis és un cas particular del problema no lineal de valors propis, T(lambda)x=0, en el qual T és una funció matricial no lineal. Aquests problemes apareixen en diverses àrees d'aplicació com a acústica, mecànica de fluids, anàlisis d'estructures, o fotònica. Aquesta tesi se centra en l'estudi de mètodes per a la resolució numèrica del problema polinòmic de valors propis, així com l'adaptació d'aquests mètodes al cas més general no lineal. Principalment, es consideren mètodes de projecció, que són apropiats per al cas de matrius disperses de gran dimensió quan es requereix solament un reduït percentatge dels valors i vectors propis. Els algorismes s'estudien des del punt de vista de la computació d'altes prestacions, tenint en consideració aspectes com l'eficiència (computacional i de memòria) i la computació paral·lela. SLEPc, Scalable Library for Eigenvalue Problem Computations, és una biblioteca software per a la resolució de problemes de valors propis de gran dimensió en paral·lel. És de propòsit general i pot usar-se per a problemes estàndards i generalitzats, simètrics i no simètrics, amb aritmètica real o complexa. Com a fruit d'aquesta tesi, s'han desenvolupat diversos solvers per a problemes polinòmics i no lineals, els quals s'han inclòs en les últimes versions d'aquest software. D'una banda, s'aborden mètodes basats en la linealització del problema polinòmic, que resolen un problema lineal equivalent de dimensió diverses vegades la de l'inicial. Entre ells es destaca el mètode TOAR, que representa la base del subespai de cerca d'una forma eficient en termes de memòria, i és adequat per a manejar l'augment de dimensió del problema lineal. La tesi també proposa variants específiques per al cas particular de matrius simètriques. En tots aquests mètodes es consideren diversos aspectes per a dotar a les implementacions de robustesa i flexibilitat, tals com a transformacions espectrals, escalat, i tècniques d'extracció. A més dels mètodes de linealització, es proposen mètodes de tipus Newton, com el mètode de Jacobi-Davidson amb deflació i el mètode de Newton per a parells invariants. Per les seues característiques, aquest últim no sol utilitzar-se com un mètode en si mateix sinó com a tècnica de refinament de les solucions obtingudes amb un altre mètode. Els mètodes anteriors poden aplicar-se a la resolució del problema no lineal, utilitzant tècniques com la interpolació polinòmica o racional, sent necessari en alguns casos adaptar els algorismes. La tesi cobreix també aquests casos. Per a tots els algorismes considerats s'han realitzat implementacions paral·leles en SLEPc, i s'ha estudiat el seu comportament numèric i les seues prestacions paral·leles en problemes procedents d'aplicacions reals.<br>Campos González, MC. (2017). Implementación paralela de métodos iterativos para la resolución de problemas polinómicos de valores propios [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86134<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
46

López, Luque Néstor Adrián. "Herramienta de apoyo a revisiones sistemáticas de la literatura en el área de la computación." Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/170457.

Full text
Abstract:
Tesis para optar al grado de Magíster en Tecnologías de Información<br>Las revisiones sistemáticas de la literatura (RSL) son actividades de gran utilidad en entornos de investigación, ya que permiten identificar los principales estudios científicos en una cierta temática, a través de preguntas de investigación específicas. Estas actividades siguen un proceso recomendado, el cual varía un poco según la disciplina sobre la que se realice dicho estudio; por ejemplo, el proceso de RSL para el área de computación es levemente diferente al que se sigue para el área de medicina o de física. Este trabajo de tesis consideró sólo el proceso de RSL para computación, y particularmente para el área de ingeniería de software, para la cual hay una recomendación de proceso definido y ampliamente validado. A pesar de la utilidad que tiene realizar RSL, requiere un gran esfuerzo por parte de los involucrados en realizarla. Este trabajo de tesis abordó esta problemática, tratando de simplificar dicho proceso y hacerlo más abordable para el usuario final (en términos del esfuerzo requerido), sin perder precisión o flexibilidad respecto al proceso recomendado para el área de ingeniería de software. Como resultado de este trabajo de tesis se realizaron modificaciones al proceso de RSL recomendado, se definieron nuevos indicadores para usar en dicho proceso, y también los algoritmos requeridos para calcularlos. Además, se desarrolló una aplicación de software Web para definir y gestionar la mayor parte del proceso de RSL, incluyendo las actividades colaborativas que forman parte de él. El software desarrollado implementa las modificaciones propuestas al proceso, y calcula y utiliza los indicadores definidos. La usabilidad y utilidad de la aplicación desarrollada fue evaluada a través de dos focus groups con investigadores que han realizado RSL. Además, la precisión del software para recuperar estudios relevantes para una RSL fue evaluada en la práctica, y comparada con los resultados reportados en tres procesos de revisión diferentes publicados en la literatura. El resultado de esta comparación fue muy positivo reduciendo el tiempo necesario para desarrollar todo el proceso, así como para encontrar los artículos relevantes, mostrando que la propuesta de modificación del proceso de RSL, así como su implementación a través de la aplicación Web antes mencionada, representan una ayuda real y tangible para los investigadores que se ven enfrentados a realizar esta actividad.
APA, Harvard, Vancouver, ISO, and other styles
47

Flores, Sánchez Omar. "Estudio de librerías paralelas de libre distribución y algoritmos paralelos iterativos multipaso para la resolución de sistemas de ecuaciones lineales dispersos. Aplicación a la ecuación de difusión neutrónica." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/4334.

Full text
Abstract:
En esta tesis se abordan dos problemas fundamentales relacionados con los estudios de estabilidad y seguridad de reactores nucleares, donde es necesario resolver eficientemente sistemas de ecuaciones lineales dispersos de gran dimensi'on. El primero de ellos est'a relacionado con el problema de los modos Lambda de la ecuaci'on de difusi'on neutr'onica aplicada a un caso de estudio (reactor Ringhals I, tipo agua en ebullici'on o BWR), que constituye un problema de valores propios generalizado. El segundo problema est'a relacionado con la resoluci'on de un sistema de ecuaciones lineales disperso de gran dimensi'on que surge de la discretizaci'on temporal de la ecuaci'on de difusi'on neutr'onica aplicada a otro caso de estudio (reactor Leibstadt, tipo BWR) y que debe resolverse en distintos pasos de tiempo. Para la resoluci'on de los sistemas de ecuaciones lineales dispersos de gran dimensi'on asociados al problema de los modos Lambda, en esta tesis se ha realizado un estudio num'erico del comportamiento secuencial y paralelo de algunos de los m'etodos que resuelven este tipo de problemas, tales como: m'etodos directos, m'etodos iterativos y m'etodos basados en subespacios de Krylov. Para realizar el estudio se han utilizando librer'yas de libre distribuci'on, tanto secuenciales como paralelas. Con los resultados obtenidos, se han identificado aquellos m'etodos y librer'yas que resuelven m'as eficientemente los sistemas lineales para el caso de estudio seleccionado. Para la resoluci'on de los sistemas de ecuaciones lineales dispersos del caso din'amico, en esta tesis se han propuesto m'etodos iterativos multipaso para la aceleraci'on de su resoluci'on, los cuales tambi'en se han implementado secuencial y paralelamente utilizando librer'yas de libre distribuci'on. En la experimentaci'on de estos m'etodos iterativos multipaso propuestos se ha podido comprobar que se ha alcanzado una aceleraci'on considerable y que pueden ser una opci'on apropiada para llevar a cabo simul<br>Flores Sánchez, O. (2009). Estudio de librerías paralelas de libre distribución y algoritmos paralelos iterativos multipaso para la resolución de sistemas de ecuaciones lineales dispersos. Aplicación a la ecuación de difusión neutrónica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4334<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
48

Carranza, Chávez Bonnie Gabriela. "Diseño de un modelo de recuperación de información usando expansión de consultas basadas en ontologías en el dominio de la ciencia de la computación." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5759.

Full text
Abstract:
A lo largo de los años, y particularmente a partir de la aparición del Internet, se ha venido dando un aumento en la cantidad de información disponible para ser consultada por las personas. Sin embargo, la aparición de los sistemas de recuperación de información ha contribuido a facilitar la búsqueda de información para los usuarios, disminuyendo los tiempos invertidos en dicha búsqueda, y hasta cierto punto, mejorando la relevancia de la información recuperada. Sin embargo, se ha identificado que aún persisten algunos elementos que dificultan la obtención de resultados relevantes tales como características propias del lenguaje natural como ambigüedad, desconocimiento del usuario respecto a qué puede ser relevante para él, entre otros. Ante esto, en el presente proyecto se propone una alternativa de solución de forma tal que los documentos recuperados sean en mayor medida relevantes. Esta recuperación se tratará bajo el enfoque específico de la expansión de consultas, proceso para el cual se emplearán modelos de conocimiento como lo son las ontologías.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
49

Valenzuela, Serra Daniel Alejandro. "Indexación Comprimida de Imágenes." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/103421.

Full text
Abstract:
No autorizada por el autor para ser publicada a texto completo<br>El continuo aumento de los volúmenes de información almacenada digitalmente ha fomentado el desarrollo de técnicas para brindar acceso y búsqueda de manera eficiente a los datos. En particular, el manejo de grandes colecciones de imágenes es un problema de gran interés. Un enfoque es tratar las imágenes como secuencias de texto bidimensional. En este contexto, han sido planteadas recientemente dos estructuras de autoindexación para colecciones de imágenes, basadas en extender autoíndices de texto unidimensional. Estas estructuras almacenan la colección en espacio proporcional al requerido para almacenar la colección comprimida, permitiendo a la vez el acceso directo a cualquier parte de la colección y la búsqueda eficiente de patrones en ella. Dos tipos de autoíndices para secuencias de texto son el Arreglo de Sufijos Comprimido y el Índice FM, y en ellos se basan las soluciones para imágenes. Este trabajo se centra en la implementación de esos dos autoíndices para imágenes. Se implementaron distintas variantes para ambas estructuras buscando la mejor manera de adaptarlas a secuencias bidimensionales, y mejorando significativamente varios de los algoritmos originales. Finalmente se diseñaron y ejecutaron experimentos para comparar las distintas variantes de ambos índices, tanto en términos de espacio requerido por las estructuras, como de tiempo en responder las consultas de acceso y búsqueda de patrones. Las estructuras basadas en el Arreglo de Sufijos Comprimido resultaron mejores en cuanto a tiempo, mientras que aquellas basadas en el Índice FM resultaron mejores en términos de espacio requerido, cuando el rango de colores es pequeño. Por ejemplo, con el Arreglo de Sufijos Comprimido somos capaces de almacenar una colección utilizando un 80% del espacio que requeriría la representación plana, pudiendo dar acceso a cualquier subimagen a una velocidad aproximada de 1 megapixel por segundo. Con esta estructura somos capaces de contar las ocurrencias de un patrón a una velocidad aproximada de 0,5 megapixeles por segundo, y podemos localizar la posición de cada ocurrencia en menos de 0,1 milisegundo. Sobre colecciones con un rango de color más pequeño, utilizando el Índice FM podemos alcanzar niveles de compresión del 50 %, pudiendo llegar al 25% si aceptamos pérdida de información. Con esta estructura podemos acceder a cualquier subimagen y realizar la búsqueda de patrones a una velocidad de 0,1 megapixel por segundo.
APA, Harvard, Vancouver, ISO, and other styles
50

Cano, Esquibel José Gaspar. "Métodos de inteligencia artificial aplicados a química computacional en entornos de computación de alto rendimiento." Doctoral thesis, Universidad de Alicante, 2014. http://hdl.handle.net/10045/45000.

Full text
Abstract:
El principal objetivo de esta tesis es la propuesta de una serie de refinamientos basados en métodos de inteligencia computacional, unidos a metodología in-silico para el descubrimiento de compuestos bioactivos, gracias a la capacidad de cómputo proporcionada por la reciente aparición de las arquitecturas computacionales masivamente paralelas tales como las GPUs (Unidades de Procesamiento Gráfico). Los resultados obtenidos en este proyecto podrían por tanto ayudar y formar la base de una nueva y atractiva generación de aproximaciones para descubrimiento de compuestos bioactivos.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography