To see the other types of publications on this topic, follow the link: Motores de búsqueda.

Dissertations / Theses on the topic 'Motores de búsqueda'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 20 dissertations / theses for your research on the topic 'Motores de búsqueda.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gómez, Pantoja Carlos. "Servicios de cache distribuidos para motores de búsqueda web." Tesis, u, 2014. http://repositorio.uchile.cl/handle/2250/116993.

Full text
Abstract:
Doctor en Ciencias, Mención Computación
Los Motores de Búsqueda Web (WSEs) actuales están formados por cientos de nodos de procesamiento, los cuales están particionados en grupos llamados servicios. Cada servicio lleva a cabo una función específica, entre los que se destacan: (i) Servicio de Front-End; (ii) Servicio de Cache; y (iii) Servicio de Índice. Específicamente, el Servicio de Front-End maneja las consultas de usuario que arriban al WSE, las distribuye entre los otros servicios, espera por los resultados y genera la respuesta final al usuario. La idea clave del Servicio de Cache es reutilizar resultados previamente computados a consultas hechas en el pasado, lo cual reduce la utilización de recursos y las latencias asociadas. Finalmente, el Servicio de Índice utiliza un índice invertido para obtener de manera eficiente los identificadores de documentos que mejor responden la consulta. El presente trabajo de tesis se focaliza en el diseño e implementación de servicios de cache distribuidos eficientes. Varios aspectos del sistema y el tráfico de consultas deben ser considerados en el diseño de servicios de cache eficientes: (i) distribuciones sesgadas de las consultas de usuario; (ii) nodos que entran y salen de los servicios (de una forma planificada o súbitamente); y (iii) la aparición de consultas en ráfaga. Cualquiera de estos tópicos es un problema importante, ya que (i) genera una asignación de carga desbalanceada entre los nodos; el tópico (ii) impacta en el servicio cuando no se utilizan mecanismos de balance de carga dinámicos, empeorando la asignación desbalanceada de carga y perdiendo información importante ante fallas; y finalmente (iii) puede congestionar o dejar fuera de servicio algunos nodos debido al abrupto incremento en el tráfico experimentado, incluso si se tiene un servicio balanceado. Dada la arquitectura que se emplea en este trabajo, el Servicio de Cache es el más expuesto a los problemas mencionados, poniendo en riesgo la tasa de hit de este servicio clave y el tiempo de respuesta del WSE. Este trabajo ataca los problemas mencionados anteriormente proponiendo mejoras arquitecturales, tales como un enfoque de balance de carga dinámico para servicios de cache altamente acoplados (desplegados en clusters) basados en Consistent Hashing, y un esquema para monitoreo y distribución de consultas frecuentes. El mecanismo de balance de carga propuesto es una nueva solución al problema de balance de carga en clusters de computadores que corren aplicaciones manejadas por los datos (data-driven). Además, se estudia cómo predecir la aparición de consultas en ráfaga para tomar acciones correctivas antes de que saturen o colapsen algunos nodos. Finalmente, se adopta la idea de un sistema tolerante a fallas para proteger información valiosa obtenida a través del tiempo. La idea fundamental es replicar algunas entradas de cache entre distintos nodos para que sean usados en caso de fallas.
APA, Harvard, Vancouver, ISO, and other styles
2

Montoya, Guevara Karina Luz. "La optimización para motores de búsqueda (SEO) en la configuración del valor agregado del periodismo digital peruano : el caso de Gestión.pe." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2016. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7995.

Full text
Abstract:
Las noticias ya no llegan a nosotros como lo hacían antes. Ese “antes” nos lleva a 1995, año en el que la revista Caretas (fundada en 1950) se convirtió en el primer medio periodístico peruano en llevar sus páginas al soporte digital, inaugurando así el inicio de una carrera a la que todos los medios locales se sumarían, para inundar —por así decirlo— la Internet en el Perú. Como resultado, al 2014 existen unas 30 versiones digitales de medios tradicionales (prensa, radio y televisión) operados desde Lima.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
3

Uribe, Canchanya Iván Renato. "Implementación de un software para búsqueda de publicaciones científicas en bases de datos estructuradas mediante datos enlazados." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12282.

Full text
Abstract:
En la actualidad, la información es uno de los activos más importantes tanto en niveles personales, educativos y organizacionales. La información permite el desarrollo y el avance de los estados del conocimiento. Desde la aparición del Internet y su exponencial evolución, el acceso a la información se ha vuelto universal y su cantidad disponible sigue aumentando considerablemente. Para las organizaciones es muy valioso el resguardo y uso de la información ya que, de esta administración depende su capacidad para seguir creciendo y obteniendo valor dentro de sus respectivos campos de acción. Del mismo modo, para una persona el obtener información importante es adquirir conocimientos que serán relevantes para la consecución de sus objetivos planteados. En cualquiera de los ámbitos el uso de la información permite la formulación y la ejecución de los planes estratégicos. Sin embargo, el encontrar aquella información que realmente se necesita se ha vuelto una tarea cada vez más complicada. En el campo de la investigación científica la recopilación de fuentes de información representa el punto de partida. Trasladando esta necesidad al contexto peruano, se observa que la producción científica está en aumento y en un ritmo acorde al crecimiento de otras naciones. Sin embargo, actualmente resulta complicado para los investigadores el obtener la información relevante para iniciar sus investigaciones con la certeza de que no existen investigaciones previas o que abarquen el mismo campo de estudio. Para lograr una buena recopilación se debe navegar entre los distintos repositorios digitales existentes que son de libre acceso o incluso pagados. En tal sentido, existe una solución conocida como Datos Enlazados, un enfoque que no se contrapone a la web actual que permite el vínculo entre páginas web (documentos HTML), pero sí lo complementa ya que permite la vinculación de datos entre distintos contextos y fuentes de información. El presente trabajo de fin de carrera propone una alternativa de solución para la búsqueda integral y automatizada en distintos repositorios digitales que son de libre acceso y cuyas bases de datos están estructuradas mediante Datos Enlazados. Se implementó un método de búsqueda adaptativo en base a las ontologías que manejan los distintos repositorios digitales (datasets). De tal manera, se obtiene una ontología de dominio adaptable que permite la extracción de datos relevantes de cada repositorio, para su posterior reestructuración y su visualización. Para lograr la ontología dinámica se implementó un algoritmo adaptador que analiza el vocabulario ontológico del dataset e identifica las entidades relevantes para el dominio de investigaciones y publicaciones. Luego, se implementaron métodos de extracción con funciones en SPARQL que dependen de la ontología y finalmente, los datos relevantes son guardados en grafos RDF para luego ser serializados en documentos RDF/XML y Turtle. Se concluye que el proyecto ha sido exitoso en cuanto que el software permite realizar la búsqueda de publicaciones de distintos autores peruanos que tienen indexados sus documentos en repositorios digitales como DBLP o IEEE Library Project, contribuyendo de esta manera a la búsqueda integral de información.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
4

Malpartida, Valverde Diego Andrés. "Implementación de un buscador semántico de documentos en el dominio de la lingüística." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/9162.

Full text
Abstract:
La World Wide Web (WWW) ha mejorado considerablemente el acceso a la información digital. La búsqueda y navegación en la Web se han convertido en parte de nuestras vidas diarias, siendo los motores de búsquedas y herramientas de navegación Web un estándar que ha cambiado la forma en la que buscamos e interactuamos con la información. Sin embargo, la Web como la conocemos hoy está diseñada para que la información contenida en las páginas o documentos sea entendible por las personas y no por las computadoras. Es decir, las computadoras no poseen de una manera para procesar la semántica o significado de la información. Esto ocasiona que solo se puedan realizar búsquedas sintácticas de la información, en lugar de búsquedas semánticas. Las búsquedas sintácticas consisten en la recuperación de aquellos documentos cuyo contenido posee las palabras o frases ingresadas por el usuario en la consulta. Se basan en la similitud de cadenas de caracteres (las ingresadas por el usuario y las que contiene el documento). El problema con las búsquedas sintácticas es que se limitan a esta coincidencia de palabras y no consideran el significado de la información, lo que ha sido demostrado que genera imprecisión (mucha información irrelevante) en los resultados. En este contexto, en el Departamento de Humanidades de la universidad existe la necesidad de recuperar información de aproximadamente 2000 documentos lingüísticos para fines académicos. Una búsqueda convencional o sintáctica no sería una buena solución, ya que como se mencionó anteriormente retorna mucha información irrelevante. Entonces, se puede definir el problema central del proyecto como la dificultad para obtener información relevante de documentos en el dominio de la lingüística. Como alternativa de solución, el presente proyecto de fin de carrera implementa un buscador que emplee los conceptos y principios de la Web Semántica. Este tipo de buscador se basa en el análisis semántico de la consulta ingresada por el usuario y del contenido de los documentos, recuperando aquellos cuya representación semántica coincide con la de la consulta. A diferencia de la búsqueda sintáctica, este enfoque analiza el significado de las palabras o frases y no solo su representación sintáctica. El beneficio de las búsquedas semánticas es que permiten alcanzar una mayor precisión en los resultados obtenidos; es decir, brindan resultados de mayor relevancia para el usuario.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
5

Carrión, Jumbo Joe. "Mejorando la red de los servicios de motores de búsqueda a través de enrutamiento basado en la aplicación." Doctoral thesis, Universitat Autònoma de Barcelona, 2017. http://hdl.handle.net/10803/456585.

Full text
Abstract:
Els sistemes de còmput complexos com els Serveis de Motors de Cerca proveeixen serveis a milions d'usuaris, i la seva demanda pot canviar sobtadament. Aquesta inestable demanda impacta significativament als components del servei (com xarxa de dades i nodes). El sistema hauria de ser capaç de gestionar escenaris inesperats, d'altra manera, els usuaris es podrien veure forçats a deixar el sistema. Un motor de cerca té una típica arquitectura composta per un Front Service que processa les sol·licituds dels usuaris, un Index Service que emmagatzema la informació recopilada d'Internet i un Cache Service que gestiona l'accés eficient al contingut d'ús més freqüent. Els avanços científics que proveeixen aquests serveis són en general tecnologia emergent. Els serveis de xarxa d'un motor de cerca requereixen una planificació especialitzada; la present investigació es desenvolupa amb l'estudi del patró de tràfic d'un motor de cerca i el disseny d'un model de enrutament dels missatges entre els nodes de la xarxa basats en les condicions de fluxos de dades del motor de cerca. El resultat esperat és un servei de xarxa especialitzat en el tràfic d'un motor de cerca que assigni els recursos de la xarxa de forma eficient segons sigui la demanda que suporta en temps real. La verificació del patró de tràfic va permetre identificar condicions de desequilibri de la xarxa de dades i congestió de missatges, així que es va dissenyar un model que combina diferents models de enrutament de la literatura i nous criteris basats en les condicions específiques del tràfic del motor de cerca. Per al disseny d'aquesta proposta ha estat necessari dissenyar un model a escala del motor de cerca utilitzant tècniques de simulació i s'ha usat tràfic d'un sistema real que ha permès verificar de forma precisa el model proposat i comparar-lo amb models de enrutament actualment disponibles a la literatura i tecnologia actual. Els resultats obtinguts demostren que el model proposat millora el rendiment de la xarxa del motor de cerca en termes de latència i throughput de la xarxa.
Los sistemas de cómputo complejos como los Servicios de Motores de Búsqueda proveen servicios a miles de usuarios, y su demanda puede cambiar repentinamente. Esta inestable demanda impacta significativamente a los componentes del servicio (como red de datos y nodos). El sistema debería ser capaz de gestionar escenarios inesperados, de otro modo, los usuarios se podrían ver forzados a dejar el sistema. Un motor de búsqueda tiene una típica arquitectura compuesta por un Front Service que procesa las solicitudes de usuarios, un Index Service que almacena la información recopilada de Internet y un Cache Service que gestiona el acceso eficiente a contenido de uso más frecuente. Los avances científicos que proveen estos servicios son en general tecnología emergente. Los servicios de red de un motor de búsqueda requieren de una planificación especializada; la presente investigación se lleva a cabo con el estudio del patrón de tráfico de un motor de búsqueda y el diseño de un modelo de enrutamiento de los mensajes entre los nodos de la red basado en las condiciones de flujo de datos del motor de búsqueda. El resultado esperado es un servicio de red especializado en el tráfico de un motor de búsqueda que asigne los recursos de red de forma eficiente según sea la demanda que soporta en tiempo real. La evaluación del patrón de tráfico permitió identificar condiciones de desbalance de la red de datos y congestión de mensajes, de modo que se diseñó un modelo que combina diferentes modelos de enrutamiento de la literatura y nuevos criterios basados en las condiciones específicas del tráfico del motor de búsqueda. Para el diseño de ésta propuesta ha sido necesario diseñar un modelo a escala del motor de búsqueda utilizando técnicas de simulación y se ha utilizado tráfico de un sistema real que ha permitido evaluar de forma precisa el modelo propuesto y compararlo con modelos de enrutamiento actualmente disponibles en la literatura y tecnología actual. Los resultados obtenidos demuestran que el modelo propuesto mejora el rendimiento de la red del motor de búsqueda en términos de latencia y throughput de la red.
Large-scale computer systems like Search Engines provide services to thousands of users, and their user demand can change suddenly. This unstable demand impacts sensitively to the service components (like network and hosts). The system should be able to address unexpected scenarios; otherwise, users would be forced to leave the service. A search engine has a typical architecture consisting of a Front Service, that processes the requests of users, an Index Service that stores the information collected from the internet and a Cache Service that manages the efficient access to content frequently used. The scientific advances that provide these services are in general emergent technology. The network services of a search engine require specialized planning; This research is carried out by studying the traffic pattern of a Search Engine and designing a routing model for messages between network nodes based on the data flow conditions of the Search Engine Service. The expected result is a network service specialized in the traffic of a Search Engine that allocates network resources efficiently according to demand it supports in real time. The evaluation of the traffic pattern allowed us to identify conditions of unbalance of the network and congestion of messages. Therefore model designed combines different routing models of the literature and a new criteria based on the specific conditions of the traffic of the Search Engine. For the design of this proposal it has been necessary to design a scale model of a Search Engine using simulation techniques and It has has used traffic from a real system that allowed us to accurately evaluate the proposed model and compare it with currently available routing models in the literature and technology. The results show that the proposed model improves the performance of the Search Engine network in terms of latency and network throughput.
APA, Harvard, Vancouver, ISO, and other styles
6

Injante, Oré Richard Enrique. "Método para recomendar factores de posicionamiento personalizados en el motor de búsqueda de Google." Master's thesis, Universidad Nacional Mayor de San Marcos, 2020. https://hdl.handle.net/20.500.12672/11732.

Full text
Abstract:
El considerable aumento de sitios web en Internet con temáticas de diversa índole ha hecho que los usuarios utilicen este medio para buscar y conseguir información. Existen diferentes tipos de buscadores como los temáticos, metabuscadores y jerárquicos, pero de todos los empleados para esta tarea, la mayoría de personas emplea al buscador jerárquico de Google como su motor de búsqueda de contenidos preferido. Teniendo esto en consideración, se vuelve fundamental para los propietarios de sitios web que sus páginas web logren alcanzar las mejores posiciones en los resultados de búsqueda con el fin poder promocionarse e incrementar su número de visitas y visibilidad en Internet. Este trabajo ofrece un método basado en modelo Knowledge Discovery in Databases(KDD) y técnicas de machine learning para recomendar factores de posicionamiento personalizados a los propietarios de sitios web con el fin de que mejoren su posicionamiento en el buscador de Google. El método consta de 6 fases las cuales son selección de los factores de posicionamiento, selección de las palabras clave, rastreo de contenido, preparación de datos, aplicación de técnica de machine learning y la recomendación de los factores de posicionamiento. La propuesta se aplicó en una página web de posición 46 y que a través de los factores recomendados e implementados mejoró alcanzando la posición máxima 3, en forma gradual y en un tiempo de 2 meses y 1 semana.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
7

Puenternan, Fernández Willy. "Desarrollo de un framework para la recuperación de imágenes a partir del ingreso de dibujos a mano alzada." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12283.

Full text
Abstract:
En la actualidad las personas demandan constantemente información que les ayude a realizar todo tipo de acciones. Ante esta necesidad surgieron los buscadores web y durante un tiempo permitieron la obtención de información de forma óptima. No obstante, ante la creciente generación de contenido multimedia como imágenes y videos, estos buscadores vieron afectados en gran medida sus funcionalidades al ser incapaces de describir a través de palabras el contenido de objetos abstractos presentes en dichas imágenes. Como alternativas de solución surgen los sistemas de recuperación de imágenes por contenido, cuyo uso se extiende inclusive a la realización de búsquedas más complejas como la recuperación de información en videos. Estos sistemas de recuperación de información visual comprenden dos conocidas áreas: similitud de imágenes y dibujos a mano alzada. En el caso de la búsqueda por similitud de imágenes se permite una mayor aproximación a las imágenes que el usuario desea obtener como resultado de su búsqueda, pero implica que el usuario disponga de una imagen previa de la que desea buscar; por lo que no tiene mucho sentido buscar una imagen si ya se cuenta con otra. Por otro lado, el uso de dibujos hechos a mano es un medio innato de representación del conocimiento utilizado desde tiempos antiguos y que las personas emplean desde edad temprana. Entonces, ¿por qué no utilizar los dibujos a mano alzada como un parámetro de entrada del motor de búsqueda de imágenes? Es lógico pensar que, mediante el uso de trazos, muchos de los problemas presentes en los buscadores tradicionales serían resueltos. No obstante, el desarrollo de esta alternativa de solución trae consigo nuevas e interesantes dificultades a enfrentar. En el presente proyecto de fin de carrera se desarrollará un framework de recuperación de imágenes mediante la especificación de dibujos a mano alzada como parámetro de entrada. Para ello se creará un algoritmo que priorice la obtención de resultados eficaces a partir del uso de técnicas de inteligencia artificial, visión computacional y sistemas de indexación de imágenes. El presente documento se encuentra dividido en 7 capítulos, los cuales abarcan lo siguiente: el primer capítulo presenta el contexto sobre el cual actúa el proyecto de tesis, sus objetivos, los resultados y las herramientas utilizadas para la obtención de estos; el segundo capítulo define los conceptos básicos y técnicos necesarios para un mayor entendimiento durante el desarrollo del framework; el tercer capítulo presenta una muestra de los trabajos más importantes aplicados hasta la fecha en el campo de recuperación de imágenes; el cuarto capítulo describe en detalle cómo se ideó la representación de las imágenes según la metodología de bolsa de características; el quinto capítulo hace hincapié en el diseño e implementación del proceso de comparación y recuperación de imágenes a partir del ingreso de trazos a mano alzada por parte del usuario; el sexto capítulo realiza un análisis de los resultados obtenidos y la validación de estos; finalmente, el séptimo capítulo presenta las conclusiones y recomendaciones obtenidas a lo largo del proyecto de tesis.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
8

González-Caro, Cristina. "Supervised Identification of the User Intent of Web Search Queries." Doctoral thesis, Universitat Pompeu Fabra, 2011. http://hdl.handle.net/10803/51300.

Full text
Abstract:
As the Web continues to increase both in size and complexity, Web search is a ubiquitous service that allows users to find all kind of information, resources, and activities. However, as the Web evolves so do the needs of the users. Nowadays, users have more complex interests that go beyond of the traditional informational queries. Thus, it is important for Web-search engines, not only to continue answering effectively informational and navigational queries, but also to be able to identify and provide accurate results for new types of queries. This Ph.D. thesis aims to analyze the impact of the query intent in the search behavior of the users. In order to achieve this, we first study the behavior of users with different types of query intent on search engine result pages (SERP), using eye tracking techniques. Our study shows that the query intent of the user affects all the decision process in the SERP. Users with different query intent prefer different type of search results (organic, sponsored), they attend to different main areas of interest (title, snippet, URL, image) and focus on search results with different ranking position. To be able to accurately identify the intent of the user query is an important issue for search engines, as this will provide useful elements that allow them adapting their results to changing user behaviors and needs. Therefore, in this thesis we propose a method to identify automatically the intent behind user queries. Our hypothesis is that the performance of single-faceted classification of queries can be improved by introducing information of multi-faceted training samples into the learning process. Hence, we study a wide set of facets that can be considered for the characterization of the query intent of the user and we investigate whether combining multiple facets can improve the predictability of these facets. Our experimental results show that this idea can significantly improve the quality of the classification. Since most of previous works in query intent classification are oriented to the study of single facets, these results are a first step to an integrated query intent classification model.
A medida que la Web sigue creciendo, tanto en tamaño como en complejidad, la búsqueda Web llega a ser un servicio ubicuo que permite a los usuarios encontrar todo tipo de información, recursos y actividades. Sin embargo, así como la Web evoluciona también lo hacen las necesidades de los usuarios. Hoy en día, los usuarios tienen intereses más complejos que van más allá de las tradicionales consultas informacionales. Por lo tanto, es importante para los motores de búsqueda Web, no solo continuar respondiendo efectivamente las consultas informacionales y navegacionales, sino también identificar y proveer resultados precisos para los nuevos tipos de consultas. El objetivo de esta tesis es analizar el impacto de la intención de la consulta en el comportamiento de búsqueda de los usuarios. Para lograr esto, primero estudiamos el comportamiento de usuarios con diferentes intenciones en las páginas de resultados de motores de búsqueda (SERP). Nuestro estudio muestra que la intención de la consulta afecta todo el proceso de decisión en la SERP. Los usuarios con diferentes intenciones prefieren resultados de búsqueda diferentes (orgánicos, patrocinados), miran diferentes áreas de interés (título, snippet, URL, imagen) y se concentran en resultados con diferente posición en el ranking. Identificar automáticamente la intención de la consulta aportaría elementos valiosos que permitirán a los sistemas de búsqueda adaptar sus resultados a los comportamientos cambiantes del usuario. Por esto, esta tesis propone un método para identificar automáticamente la intención detrás de la consulta. Nuestra hipótesis es que el rendimiento de la clasificación de consultas basada en facetas simples puede ser mejorado con la introducción de ejemplos multi-faceta en el proceso de aprendizaje. Por lo tanto, estudiamos un grupo amplio de facetas e investigamos si la combinación de facetas puede mejorar su predictibilidad. Nuestros resultados muestran que esta idea puede mejorar significativamente la calidad de la clasificación. Dado que la mayoría de trabajos previos están orientados al estudio de facetas individuales, estos resultados son un primer paso hacia un modelo integrado de clasificación de la intención de la consulta.
APA, Harvard, Vancouver, ISO, and other styles
9

Arévalo, Ramírez-Gastón Karina. "Implementación de un sistema de control de citas médicas integrado con una aplicación móvil que facilite la gestión de búsqueda y reservas en clínicas." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6052.

Full text
Abstract:
Cuando queremos sacar una cita médica con algún doctor en particular, normalmente debemos limitarnos a ir a la clínica para conseguir un cupo, o a lo mucho hacer una llamada. Este proceso, si bien funciona hoy en día, no es el más óptimo por ciertos puntos, como por ejemplo, demoras en la gestión, pocas opciones de horarios, entre otros. De igual forma, los pacientes no cuentan con una guía completa de los médicos con los que pueden atenderse. De esta forma no siempre se atienden con el doctor que cubre mejor sus requerimientos, como tiempo, distancia, precio, y otros indicadores. El contar con un consolidado de información sobre todos los médicos del Perú y ver su disponibilidad generaría ciertos beneficios. El siguiente proyecto de fin de carrera tiene como finalidad crear una solución informática ante este problema mencionado, con la creación de una aplicación móvil que pueda funcionar como un motor de búsqueda personalizado y que permita realizar reservas de citas médicas desde cualquier lugar y a cualquier momento. A su vez, la integración con un sistema web que permita recibir las peticiones de citas. De esta forma las clínicas podrían estar integradas al sistema que se propone, dándole facilidades en su gestión de reservas y que de esta forma funcione como una posible nueva alternativa de negocio.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
10

Gonzalo, Penela Carlos. "Posicionamiento web y dinámicas de información en motores de búsqueda: propuestas de análisis y estudio comparativo de visibilidad de contenidos digitales en el caso de procesos electorales." Doctoral thesis, Universitat Pompeu Fabra, 2015. http://hdl.handle.net/10803/292730.

Full text
Abstract:
Esta tesis tiene como objeto de estudio las características de las páginas web obtenidas a través de resultados de búsqueda (SERPs) durante los procesos electorales realizados en España entre los años 2010 y 2012. Partiendo del modelo teórico de Infoesfera expuesto por W.L. Bennet en 2003, se ha desarrollado un sistema de análisis capaz de englobar la totalidad de la web y analizar las proporciones con las que los buscadores muestran determinadas categorías de sitios web, en especial, medios de comunicación, webs de la esfera pública/política y de la web social. El resultado ha sido un nuevo modelo de Infoesfera y un estado de la cuestión sobre SEO y factores de posicionamiento en buscadores.
This dissertation aims to study the characteristics of web pages retrieved through Search Engine Results Pages (SERPs) during elections held in Spain between 2010 and 2012. The research was based on the Infosphere theoretical model put forward by W.L. Bennet in 2003, a theoretical framework that has been developed to build an analytical system that encompasses the entire Web and analyses the proportions with which search engines show particular categories of websites, especially media sites, websites in the public/political sphere and social networking sites. The result has been a new Infosphere model and a state of the art about SEO and search engine ranking factors.
APA, Harvard, Vancouver, ISO, and other styles
11

Morales, Vidal Jorge Arturo. "Research on proposals and trends in the architectures of semantic search engines: a systematic literature review." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/11974.

Full text
Abstract:
Las tecnologías de web semántica han ganado atención en los últimos años, en su mayoría explicada por la proliferación de dispositivos móviles y el acceso a Internet de banda ancha. Tal como Tim Berners-Lee, creador de la World Wide Web, lo avisoró a principios de siglo, las tecnologías de la web semántica han fomentado el desarrollo de estándares que permiten, a su vez, la aparición de los motores de búsqueda semánticos que dan a los usuarios la información que están buscando. Este estudio de investigación presenta los resultados de una revisión sistemática de la literatura que se centra en la comprensión de las propuestas y tendencias en los motores de búsqueda semánticos desde el punto de vista de la arquitectura del software. A partir de los resultados, es posible decir que la mayoría de los estudios proponen una solución integral para sus usuarios, donde los requisitos, el contexto y los módulos que componen el buscador desempeñan un gran rol. Las ontologías y el conocimiento también juegan un papel importante en estas arquitecturas a medida que evolucionan, permitiendo una gran cantidad de soluciones que responden de una mejor manera a las expectativas de los usuarios. La presente tesis es una extensión del artículo "Research on proposals and trends in the architectures of semantic search engines: A systematic literature review", publicado en "Proceedings of the 2017 Federated Conference on Computer Science and Information Systems". Esta tesis expone mayores detalles con respecto al artículo publicado, teniendo ambos en común el desarrollo y los resultados de la revisión sistemática de la literatura.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
12

León, Shimabukuro Alexis Enrique. "Diseño e implementación de un navegador de conceptos enlazados en el dominio de Ciencias de la computación." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13494.

Full text
Abstract:
En la actualidad, la World Wide Web es una de las fuentes principales de información, siendo un espacio que se encuentra en constante crecimiento, puesto que cada vez mas personas cuentan con acceso a internet. Sin embargo, esto genera múltiples problemas entre los que podemos mencionar como la duplicidad de información, que dificulta la búsqueda de información relevante a los usuarios, quienes utilizan herramientas como motores de búsqueda para esta tarea. Ante esta situación surgió la Web Semántica, extensión de la Web tradicional, en donde la información es comprensible tanto para las personas como para las máquinas. Para publicar información en este espacio existen un conjunto de prácticas conocido como Linked Data, que permiten que la información se estructure según su significado y relación entre los datos que la componen, lo que facilita la labor de búsqueda y permite el descubrimiento de nueva información, generando valor a usuarios como investigadores, que constantemente se encuentran en búsqueda de conocimientos. Toda la información en constante crecimiento contenida en la Web Semántica puede ser accedida simplemente mediante navegadores convencionales; sin embargo, esta se encuentra en su mayoría en formato RDF, por lo que el usuario común no podrá comprender su contenido. Para que la información pueda ser de utilidad, se necesitan conocimientos en conceptos como RDF y XML, lo que limita gran parte del potencial actual de la Web Semántica a los especialistas en dicha área. El presente proyecto implementa un navegador de Linked Data, mediante el cual los usuarios pueden consultar información en el dominio de las ciencias de la computación, dicha información es obtenida de la Web Semántica, permitiendo el descubrimiento de información relevante, contribuyendo así a la expansión de dicha tecnología, que busca unificar y estructurar toda la información contenida en la web. Para la elaboración del proyecto, se implementó un módulo de procesamiento de consultas, en donde el usuario ingresa una cadena de búsqueda, al igual que en un motor de búsqueda tradicional y mediante esta cadena se obtienen posibles propiedades, que son enviadas a manera de consultas en lenguaje SPARQL, a partir de cuyos resultados se construyen estructuras RDFs que muestran los conceptos y la información presentada en una interfaz gráfica para que el usuario pueda visualizarla y navegar a través de dichos conceptos, permitiendo el descubrimiento de información relevante.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
13

Otoya, Paz Diego Augusto. "DoLaw: buscador semántico especializado para la legislación peruana de tecnologías de información." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/10701.

Full text
Abstract:
Desarrolla un programa especializado en la búsqueda de documentos en legislación peruana de tecnología de información, a través de la interpretación semántica de las palabras clave que el usuario final introduce. La finalidad es realizar una búsqueda en el contenido completo de dichos documentos, con elementos funcionales personalizados para la legislación peruana de tecnología de información, diseñados para facilitar la búsqueda al brindar funcionalidades adicionales específicas para dicha legislación. Durante el proyecto se definen distintos procesos; análisis de las consultas del usuario, análisis del contenido de la legislación, indexación, generación de consultas ponderadas por prioridad, ordenamiento de resultados obtenidos, entre otros, con el fin de satisfacer las necesidades de los usuarios, sin afectar la precisión y exhaustividad de los resultado.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
14

Romero, Tris Cristina. "Client-side privacy-enhancing technologies in web search." Doctoral thesis, Universitat Rovira i Virgili, 2014. http://hdl.handle.net/10803/284036.

Full text
Abstract:
Els motors de cerca (En anglès, Web Search Engines - WSEs-), són eines que permeten als usuaris localitzar informació específica a Internet. Un dels objectius dels WSEs és retornar els resultats que millor coincideixen amb els interessos de cada usuari. Amb aquesta finalitat, l'WSEs recull i analitza l' historial de cerca per construir perfils. Com a resultat, un usuari que envia una certa consulta rebrà els resultats més interessants en les primeres posicions. Encara que proporcionen un servei molt útil, també representen una amenaça per a la privacitat dels seus usuaris. Es construeixen els perfils basats en la història de les consultes i altres dades relacionades que poden contenir informació personal i privada. Per evitar aquesta amenaça de privacitat, és necessari establir mecanismes per a la protecció de la privacitat dels usuaris dels motors de cerca. Actualment, hi ha diverses solucions en la literatura per proporcionar privacitat a aquests usuaris. Un dels objectius d'aquest estudi és analitzar les solucions existents, estudiar les seves diferències i els avantatges i inconvenients de cada proposta. Llavors, basat en l'estat de l'art, presentem noves propostes per protegir la privadesa dels usuaris. Més concretament, aquesta tesi proposa tres protocols per preservar la privacitat dels usuaris en la cerca web. La idea general és distribuir als usuaris en grups on intercanvi consultes, com a mètode d'ofuscació ocultar les consultes reals de cada usuari. El primer protocol distribuït que proposem es centra en la reducció del temps d'espera de consulta, és a dir, el temps que cada membre del grup ha d'esperar per rebre els resultats de la seva consulta. El segon protocol proposat millora les propostes anteriors ja que resisteix els atacs interns, i obté millors resultats que les propostes similars en termes de càlcul i comunicació. La tercera proposta és un protocol P2P, on els usuaris estan agrupats segons les seves preferències. Això permet ocultar els perfils d'usuari però conservar els interessos generals. En conseqüència, el motor de cerca és capaç de classificar millor els resultats de les seves consultes.
Los motores de búsqueda (en inglés, Web Search Engines -WSEs-) son herramientas que permiten a los usuarios localizar información específica en Internet. Uno de los objetivos de los WSEs es devolver los resultados que mejor coinciden con los intereses de cada usuario. Para ello, los WSEs recogen y analizan el historial de búsqueda de los usuarios para construir perfiles. Como resultado, un usuario que envía una cierta consulta recibirá los resultados más interesantes en las primeras posiciones. Aunque ofrecen un servicio muy útil, también representan una amenaza para la privacidad de sus usuarios. Los perfiles se construyen a partir del historial de consultas y otros datos relacionados que pueden contener información privada y personal. Para evitar esta amenaza de privacidad, es necesario establecer mecanismos de protección de privacidad de motores de búsqueda. En la actualidad, existen varias soluciones en la literatura para proporcionar privacidad a estos usuarios. Uno de los objetivos de este trabajo es examinar las soluciones existentes, analizando sus diferencias y las ventajas y desventajas de cada propuesta. Después, basándonos en el estado del arte actual, presentamos nuevas propuestas que protegen la privacidad de los usuarios. Más concretamente, esta tesis doctoral propone tres protocolos que preservan la privacidad de los usuarios en las búsquedas web. La idea general es distribuir a los usuarios en grupos donde intercambian sus consultas, como método de ofuscación para ocultar las consultas reales de cada usuario. El primer protocolo distribuido que proponemos se centra en reducir el tiempo de espera de la consulta, es decir, el tiempo que cada miembro del grupo tiene que esperar para recibir los resultados de la consulta. El segundo protocolo propuesto mejora anteriores propuestas porque resiste ataques internos, mejorando propuestas similares en términos de cómputo y comunicación. La tercera propuesta es un protocolo P2P, donde los usuarios se agrupan según sus preferencias. Esto permite ofuscar los perfiles de los usuarios pero conservando a sus intereses generales. En consecuencia, el WSE es capaz de clasificar mejor los resultados de sus consultas.
Web search engines (WSEs) are tools that allow users to locate specific information on the Internet. One of the objectives of WSEs is to return the results that best match the interests of each user. For this purpose, WSEs collect and analyze users’ search history in order to build profiles. Consequently, a profiled user who submits a certain query will receive the results which are more interesting for her in the first positions. Although they offer a very useful service, they also represent a threat for their users’ privacy. Profiles are built from past queries and other related data that may contain private and personal information. In order to avoid this privacy threat, it is necessary to provide privacy-preserving mechanisms that protect users. Nowadays, there exist several solutions that intend to provide privacy in this field. One of the goals of this work is to survey the current solutions, analyzing their differences and remarking the advantages and disadvantages of each approach. Then, based on the current state of the art, we present new proposals that protect users’ privacy. More specifically, this dissertation proposes three different privacy-preserving multi-party protocols for web search. A multi-party protocol for web search arranges users into groups where they exchange their queries. This serves as an obfuscation method to hide the real queries of each user. The first multi-party protocol that we propose focuses on reducing the query delay. This is the time that every group member has to wait in order to receive the query results. The second proposed multi-party protocol improves current literature because it is resilient against internal attacks, outperforming similar proposals in terms of computation and communication. The third proposal is a P2P protocol, where users are grouped according to their preferences. This allows to obfuscate users’ profiles but conserving their general interests. Consequently, the WSE is able to better rank the results of their queries.
APA, Harvard, Vancouver, ISO, and other styles
15

Pàmies, Estrems David. "Contributions to Lifelogging Protection In Streaming Environments." Doctoral thesis, Universitat Rovira i Virgili, 2020. http://hdl.handle.net/10803/669809.

Full text
Abstract:
Tots els dies, més de cinc mil milions de persones generen algun tipus de dada a través d'Internet. Per accedir a aquesta informació, necessitem utilitzar serveis de recerca, ja siguin motors de cerca web o assistents personals. A cada interacció amb ells, el nostre registre d'accions, logs, s'utilitza per oferir una millor experiència. Per a les empreses, també són molt valuosos, ja que ofereixen una forma de monetitzar el servei. La monetització s'aconsegueix venent dades a tercers, però, els logs de consultes podrien exposar informació confidencial de l'usuari (identificadors, malalties, tendències sexuals, creences religioses) o usar-se per al que es diu "life-logging ": Un registre continu de les activitats diàries. La normativa obliga a protegir aquesta informació. S'han proposat prèviament sistemes de protecció per a conjunts de dades tancats, la majoria d'ells treballant amb arxius atòmics o dades estructurades. Desafortunadament, aquests sistemes no s'adapten quan es fan servir en el creixent entorn de dades no estructurades en temps real que representen els serveis d'Internet. Aquesta tesi té com objectiu dissenyar tècniques per protegir la informació confidencial de l'usuari en un entorn no estructurat d’streaming en temps real, garantint un equilibri entre la utilitat i la protecció de dades. S'han fet tres propostes per a una protecció eficaç dels logs. La primera és un nou mètode per anonimitzar logs de consultes, basat en k-anonimat probabilística i algunes eines de desanonimització per determinar fuites de dades. El segon mètode, s'ha millorat afegint un equilibri configurable entre privacitat i usabilitat, aconseguint una gran millora en termes d'utilitat de dades. La contribució final es refereix als assistents personals basats en Internet. La informació generada per aquests dispositius es pot considerar "life-logging" i pot augmentar els riscos de privacitat de l'usuari. Es proposa un esquema de protecció que combina anonimat de logs i signatures sanitizables.
Todos los días, más de cinco mil millones de personas generan algún tipo de dato a través de Internet. Para acceder a esa información, necesitamos servicios de búsqueda, ya sean motores de búsqueda web o asistentes personales. En cada interacción con ellos, nuestro registro de acciones, logs, se utiliza para ofrecer una experiencia más útil. Para las empresas, también son muy valiosos, ya que ofrecen una forma de monetizar el servicio, vendiendo datos a terceros. Sin embargo, los logs podrían exponer información confidencial del usuario (identificadores, enfermedades, tendencias sexuales, creencias religiosas) o usarse para lo que se llama "life-logging": Un registro continuo de las actividades diarias. La normativa obliga a proteger esta información. Se han propuesto previamente sistemas de protección para conjuntos de datos cerrados, la mayoría de ellos trabajando con archivos atómicos o datos estructurados. Desafortunadamente, esos sistemas no se adaptan cuando se usan en el entorno de datos no estructurados en tiempo real que representan los servicios de Internet. Esta tesis tiene como objetivo diseñar técnicas para proteger la información confidencial del usuario en un entorno no estructurado de streaming en tiempo real, garantizando un equilibrio entre utilidad y protección de datos. Se han hecho tres propuestas para una protección eficaz de los logs. La primera es un nuevo método para anonimizar logs de consultas, basado en k-anonimato probabilístico y algunas herramientas de desanonimización para determinar fugas de datos. El segundo método, se ha mejorado añadiendo un equilibrio configurable entre privacidad y usabilidad, logrando una gran mejora en términos de utilidad de datos. La contribución final se refiere a los asistentes personales basados en Internet. La información generada por estos dispositivos se puede considerar “life-logging” y puede aumentar los riesgos de privacidad del usuario. Se propone un esquema de protección que combina anonimato de logs y firmas sanitizables.
Every day, more than five billion people generate some kind of data over the Internet. As a tool for accessing that information, we need to use search services, either in the form of Web Search Engines or through Personal Assistants. On each interaction with them, our record of actions via logs, is used to offer a more useful experience. For companies, logs are also very valuable since they offer a way to monetize the service. Monetization is achieved by selling data to third parties, however query logs could potentially expose sensitive user information: identifiers, sensitive data from users (such as diseases, sexual tendencies, religious beliefs) or be used for what is called ”life-logging”: a continuous record of one’s daily activities. Current regulations oblige companies to protect this personal information. Protection systems for closed data sets have previously been proposed, most of them working with atomic files or structured data. Unfortunately, those systems do not fit when used in the growing real-time unstructured data environment posed by Internet services. This thesis aims to design techniques to protect the user’s sensitive information in a non-structured real-time streaming environment, guaranteeing a trade-off between data utility and protection. In this regard, three proposals have been made in efficient log protection. The first is a new method to anonymize query logs, based on probabilistic k-anonymity and some de-anonymization tools to determine possible data leaks. A second method has been improved in terms of a configurable trade-off between privacy and usability, achieving a great improvement in terms of data utility. Our final contribution concerns Internet-based Personal Assistants. The information generated by these devices is likely to be considered life-logging, and it can increase the user’s privacy risks. The proposal is a protection scheme that combines log anonymization and sanitizable signatures.
APA, Harvard, Vancouver, ISO, and other styles
16

Meléndez, Cucho María Jesús, and Bernaola Víctor Suárez. "Implementación de un prototipo de gestión de contenidos orientado a SEO para mejorar el posicionamiento web de portales peruanos." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/14604.

Full text
Abstract:
Pretende la optimización de portales Web peruanos en los Motores de Búsqueda, para que así las empresas que posean estos portales, puedan aprovecharlo mejor como un medio de estrategia de marketing en la Internet. Para lograr el objetivo mencionado se plantea la aplicación en conjunto de 2 técnicas, Search Engine Optimization (SEO) y Web Content Management System (WCMS), que en la actualidad se aplican de forma independiente, a pesar de guardar una estrecha relación, esta integración busca formar una técnica más completa para la optimización de los portales Web. En ese sentido, se realizó un análisis de las técnicas actuales de SEO, seleccionando las más adecuadas para los portales Web peruanos y además se analizó las funcionalidades básicas de un WCMS, que permita un mejor manejo de la información útil, que se requiere en el portal. Se tomó como caso de estudio, el portal Web peruano, dedicado al Desarrollo de Software, llamado Soft Brilliance S. A. C. Se analizó el posicionamiento actual del portal en los principales Motores de Búsqueda (Google, Yahoo y MSN) y el resultado de este análisis, arrojó un bajo posicionamiento como consecuencia de una aplicación deficiente de las técnicas SEO y la falta de una adecuada gestión de contenidos web. Finalmente se diseñó un prototipo fundamentado en la integración de Técnicas SEO y WCMS, que buscará optimizar el portal Web, buscando ser amigable tanto a los Motores de Búsqueda, como a los usuarios.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
17

García, Soria Carlos Luis. "Posicionamiento en buscadores aplicando un modelo SEO. Aplicación práctica empresa LogiaNET." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. https://hdl.handle.net/20.500.12672/16335.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor
Propone un modelo SEO (Search Engine Optimization) para aplicarlo como modelo para las actividades y tareas relacionadas al posicionamiento de buscadores para que todo el proceso se realice de forma organizada, con una debida planificación para conseguir aumentar el número de visitas y el rango o valor de un sitio web. Del mismo modo este modelo se apoyará de herramientas informáticas que automaticen las actividades SEO del posicionamiento en buscadores que se estaban desarrollando mecánicamente, con lo que se logrará que todo el proceso se realice de forma más eficiente ahorrando tiempo, esfuerzo y dinero. SEO constituye un conjunto de técnicas de optimización para hacer que un sitio web sea más accesible para los buscadores, atrayendo más visitas (personas) y con eso tener más posibilidades de vender el producto o servicio que se oferta en dicho sitio web. Según los resultados obtenidos, luego de su evaluación y comparación con los resultados esperados o estimados se podrá concluir si el modelo SEO planteado es válido y confiable para que pueda ser aplicado como solución a este y otros casos similares que se puedan presentar.
APA, Harvard, Vancouver, ISO, and other styles
18

Tello, Benel Mariaximena Mirella. "El impacto del Search Engine Optimizacion (SEO) en la redacción periodística digital. Caso Publimetro." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/648830.

Full text
Abstract:
Actualmente, el mundo está en una etapa de cambios y evolución hacia una era netamente digital y los medios de comunicación no son ajenos a este proceso. En ese sentido, cientos de empresas de noticias a nivel global se han visto obligadas a generarse un espacio en la web para difundir su contenido, debido a la caída de ventas de los periódicos impresos. Ante este panorama, herramientas digitales como el Search Engine Optimization (SEO) buscan posicionar de manera orgánica un sitio dentro de un motor de búsqueda como Google. De esta manera, se podrá se podrán generar mayores ingresos a través de visitas en el sitio online y una mayor fidelización de la audiencia. El presente trabajo analizará qué tan preparados y capacitados se encuentran los redactores para que puedan emplear de manera correcta el SEO y este pueda impactar de manera positiva en los resultados del medio, sin dejar de lado los principios básicos del periodismo.
Currently, the world is in a stage of changes and evolution towards a purely digital era and the media are no stranger to this process. In that sense, hundreds of global news companies have been forced to generate a space on the web to disseminate their content, due to the fall in sales of printed newspapers. Against this backdrop, digital tools such as Search Engine Optimization (SEO) seek to position a site organically within a search engine like Google. In this way, you can generate more revenue through visits to the online site and greater loyalty of the audience. This paper will analyze how prepared and trained the editors are so that they can use SEO correctly and it can have a positive impact on the results of the media, without neglecting the basic principles of journalism.
Trabajo de investigación
APA, Harvard, Vancouver, ISO, and other styles
19

Franco, Pérez Álvaro Moisés. "Uso y utilidad de las herramientas de búsqueda bibliográfica de acceso gratuito relacionadas con las ciencias de la salud (PubMed, Google Scholar y Scirus)." Doctoral thesis, Universidad de Alicante, 2014. http://hdl.handle.net/10045/40685.

Full text
Abstract:
Objetivo: Evaluar las diferentes herramientas de búsqueda de acceso gratuito relacionadas con las ciencias de la salud: PubMed (MeSH y texto libre), Google Scholar y Scirus. Método: Análisis bibliométrico de la producción científica recuperada en las diferentes herramientas de búsqueda seleccionadas. Los datos se obtuvieron aplicando en cada una de ellas, una ecuación de búsqueda sencilla (mediante el descriptor nursing care) y una compuesta según el esquema: Población (neoplasms), Intervención (nutritional status), Resultado (quality of life). Para calcular la muestra a analizar, se efectuó la estimación de parámetros poblacionales en población infinita (valor esperado 0,5; precisión 0,05; nivel de confianza 0,95), realizándose la selección mediante muestreo aleatorio simple sin reemplazo. Resultados: Se estudiaron 1175 referencias: 124 PubMed (MeSH); 386 Google Scholar, 386 Scirus y 279 PubMed (texto-libre). De ellas, 904 eran artículos publicados en 350 revistas, presentando 20 o más referencias: Supportive Care in Cancer con 36 (3,98%; IC95%: 2,71 - 5,26), Clinical Nutrition con 32 (3,54%; IC95%: 2,34-4,47) y Nutrición Hospitalaria con 20 (2,21%; IC95%: 1,25-3,17), con diferencias significativas entre PubMed (MeSH) y Google Scholar y Scirus (p<0,01 en ambos casos). Dispersión de la literatura (Ley de Bradford): núcleo principal (1º tercil), 23 revistas (6,57%; IC95%: 3,98-9,17) con 302 artículos publicados (33,41%; IC95% 30,33-36,48). Estadísticos relacionados con el Factor de Impacto del núcleo: Media 4,522 ± 4,014 y Máximo 18,372 (Journal of Clinical Oncology). Edad media de los documentos de 8,17 ± 6,54 (IC95% 7,79-8,55), Mediana 6 años (Índice de Burton Kleber), Máximo 34 años e Índice de Price 42,84%. Sólo observándose diferencias entre Google Scholar y PubMed (texto libre). Acceso al texto completo en 1001 ocasiones (86,07%; IC95%: 84,08-88,06), en 474 casos (40,76%; IC95% 37,93-43,58) gratuitamente. En conjunto, y en cada uno de los buscadores, existe evolución ascendente del número de publicaciones (1978-2012), ajustándose a un modelo de curva exponencial (R=0,93 y R2=0,86). Conclusiones: La temática estudiada continúa vigente según los indicadores de actualidad. Las revistas más referidas coinciden con publicaciones sobre ciencias de la nutrición y oncología de alto impacto, observándose un crecimiento exponencial y amplio acceso al texto completo, destacando la presencia de una revista iberoamericana (Nutrición Hospitalaria) con vocación internacional. Así, PubMed sigue siendo la mejor opción para búsquedas clínicas pertinentes. Google Scholar es la mejor herramienta para búsquedas rápidas de artículos a texto completo y Scirus sólo es válido si se dispone de suscripción a ScienceDirect.
APA, Harvard, Vancouver, ISO, and other styles
20

Tello, Benel Mariaximena Mirella. "Análisis de herramientas SEO en el portal web del diario El Comercio durante la cobertura informativa de la pandemia producida por el coronavirus en Perú (6 de marzo al 24 de mayo de 2020)." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/655028.

Full text
Abstract:
En un mundo sujeto a los cambios que la tecnología propicia, el periodismo está obligado a atravesar un proceso de reconversión para migrar del papel a la web y convertirse en un medio de alta difusión. La labor del periodista es ahora fusionar el concepto de dinamismo e inmediatez, características propias de internet, con el ejercicio del buen periodismo para entregar al lector una noticia de calidad, veraz y contrastada. Además, debe incluir herramientas de posicionamiento web (SEO) que le permitan ubicar sus contenidos en los primeros resultados de los motores de búsqueda como Google y, de este modo, llegar a más personas. Ante este panorama, se propone la siguiente investigación que tiene como objetivo determinar si la correcta aplicación del SEO en la redacción periodística digital influye en la visibilidad del flujo noticioso dentro de los buscadores. Para ello, se ha utilizado como objeto de estudio 35 notas publicadas en la edición digital del diario peruano El Comercio durante la pandemia por Covid-19. Se ha diseñado un instrumento que permitió evaluar los aspectos periodísticos, así como las herramientas de posicionamiento y de impacto. Como resultado, se observaron dos tipos de comportamientos en las notas seleccionadas: la primera hace referencia a un conjunto de noticias masivas, publicadas bajo la firma general del diario, que privilegian los elementos de optimización web, la hipertextualidad y la multimedialidad en detrimento de otros aspectos del periodismo; mientras que el segundo se circunscribe a aquellas notas firmadas por un periodista, las cuales ofrecen textos extensos, con varias fuentes de información y un mayor procesamiento, dejando de lado las técnicas de posicionamiento. De este modo, la investigación concluye que, si bien el SEO influye en la visibilidad de contenidos noticiosos, el desafío consiste en incorporar los elementos beneficiosos del periodismo tradicional a la versátil y aún impredecible cultura digital.
In a world subject to the changes that technology brings, journalism is obliged to go through a process of conversion to migrate from paper to the web and become a means of high diffusion. The job of journalist is now related with merging the concept of dynamism and immediacy, a remarkable feature of the internet, delivering to the readers quality, truthful and proven news. In addition, the journalist should include web positioning tools (SEO) that allow to locate the content in the first results of search engines such as Google and, in this way, reach more people. In view of this scenario, the following research has as a significant aim to determine whether the correct application of SEO in digital journalistic writing influences the visibility of the news flow within search engines. To this end, 35 notes published in the digital edition of the peruvian newspaper El Comercio during the pandemic by Covid-19 have been used as the subject of study. An instrument has been designed to evaluate journalistic aspects, as well as positioning and impact tools. As a result, two types of behaviors were observed in the selected notes: the first refers to a set of mass news, published under the general signature of the journal, which favor elements of web optimization, hypertextuality and multimediality to the detriment of other aspects of journalism; while the latter is limited to those notes signed by a journalist, which offers extensive texts, with various sources of information and greater processing, leaving aside positioning techniques. In this way, research concludes that while SEO influences the visibility of news content, the challenge is to incorporate the beneficial elements of traditional journalism into the versatile and still unpredictable digital culture.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography