Academic literature on the topic 'Análisis de datos: técnicas'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Análisis de datos: técnicas.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Análisis de datos: técnicas"

1

Carrión, Juan Javier Sánchez. "Técnicas de análisis de datos nominales." Reis, no. 45 (1989): 133. http://dx.doi.org/10.2307/40183362.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Rodríguez P, Wilson, Paola A. García R., and Alberto Fajardo O. "Aplicaciones de técnicas espectroscópicas para el análisis de suelos." Revista Facultad de Ciencias Básicas 12, no. 2 (July 25, 2016): 228–51. http://dx.doi.org/10.18359/rfcb.2030.

Full text
Abstract:
Existe una gran diversidad de técnicas analíticas en el estudio de suelos, siendo las técnicas espectroscópicas las que mayor auge han tenido recientemente ante la necesidad de buscar metodologías que permitan estudiar adecuadamente grandes extensiones de tierra y que sean amigables con el ambiente. Por esto es necesario revisar dentro de las actuales técnicas espectroscópicas usadas en análisis de suelos cual sería la técnica más adecuada para incorporar en los servicios de extensión en suelos en Colombia bajo los lineamientos dados anteriormente. La espectroscopía infrarrojo es la técnica más pertinente para incorporar en los análisis de fertilidad de suelos en Colombia considerando su versatilidad, bajo costo y reproducibilidad. Asociando los datos de IR con el uso de análisis quimiométrico se pueden lograr estimaciones de parámetros edáficos con alto grado de certeza, con lo cual se genera una nueva estrategia de trabajo en laboratorio ambientalmente más amigable.
APA, Harvard, Vancouver, ISO, and other styles
3

Izquierdo Bautista, Jaime. "Métodos de análisis estadístico con datos dispersos." Ingeniería y Región 24 (December 28, 2020): 86–98. http://dx.doi.org/10.25054/22161325.2537.

Full text
Abstract:
En este artículo se presentan las principales características de algunas metodologías para derivar modelos de predicción o clasificación cuando se tienen muchos datos. Dentro de estos se describen las redes neuronales, bosques aleatorios, árboles de decisión, árboles altamente aleatorizados (extra trees) y método de regresión asistida por patrón de contraste (CPXR). Técnicas que han sido utilizadas para derivar modelos de predicción de retención de agua, clasificación de imágenes, clasificación de suelos, determinación de las principales variables que intervienen en un proceso.
APA, Harvard, Vancouver, ISO, and other styles
4

Vicente, Kleber, William Venegas, Christian Vásconez, and Iván Zambrano. "Análisis de Flexo-extensión del Cuello Mediante el Uso de Visión Artificial." Revista Politécnica 45, no. 1 (April 16, 2020): 7–16. http://dx.doi.org/10.33333/rp.vol45n1.01.

Full text
Abstract:
En el tratamiento del dolor cervical se emplean equipos y técnicas que no miden la intensidad del dolor del paciente, sino que únicamente permiten observar los daños estructurales de dicha región. Sin embargo, la evaluación de éste dolor se puede llevar a cabo al analizar las variables cinemáticas de los tres movimientos de la articulación cervical: flexo-extensión, flexo-lateral y rotación. En este trabajo estudiaremos la fiabilidad de la técnica de fotogrametría, mediante el uso de una cámara de bajo costo, denominado Kinect V1. La cámara Kinect adquirirá los parámetros cinemáticos del movimiento de flexo-extensión de la articulación del cuello y, técnicas de visión artificial y de procesamiento de imágenes de profundidad/color del sensor Kinect serán empleadas para obtener las trayectorias de los marcadores anatómicos y técnicos. Se utilizará un filtro de Kalman para corregir el seguimiento continuo de las trayectorias de los marcadores técnicos y, consecuentemente, las coordenadas espaciales de cada marcador. Los datos fueron obtenidos de siete sujetos de prueba, entre hombres y mujeres, físicamente sanos. Las edades de los sujetos están comprendidas entre 17 y 40 años. Asociados a las coordenadas de cada marcador técnico, calculamos los parámetros cinemáticos de velocidad angular, aceleración angular y desplazamiento angular, para obtener los parámetros de fiabilidad y correlación entre pruebas. Esto último se realizó al analizar el error estándar medio, el índice de correlación múltiple y los índices de correlación de Pearson, empleados para análisis clínico. El alto índice de correlación entre los ensayos realizados nos permite ratificar la fiabilidad de nuestra metodología.
APA, Harvard, Vancouver, ISO, and other styles
5

Zamora Baidal, Dustyn, Anthony Triviño, Amilkar Yudier Puris Cáceres, Rodrigo Emilio Zhuma Mera, and Byron Oviedo Bayas. "Análisis y técnicas de prevención ante ataques ransomware." Revista Tecnológica Ciencia y Educación Edwards Deming 5, no. 1 (July 6, 2021): 98–108. http://dx.doi.org/10.37957/ed.v5i1.72.

Full text
Abstract:
El presente proyecto de investigación está enfocado al análisis de los ataques ransomware y las formas para contrarrestarlo. Los ransomware son un tipo de malware que encriptan datos dejándolos inaccesibles y para desencriptarlos los ciberatacantes piden un rescate, generalmente económico. El proyecto consta de 4 partes y se plantea primero, realizar una recopilación de estudios con relación a los ataques ransomware usando el meta-análisis. Posteriormente se conocen los ransomwares más comunes y las características de los ataques por localidad, tipo de empresas, economía y software. En esta parte se detalla estadísticamente el impacto del ransomware a nivel global. En tercera parte se realiza un ataque ransomware WannaCry considerado el más común, simulado en una máquina virtual, también se detalla el proceso de infección y encriptación de los datos.
APA, Harvard, Vancouver, ISO, and other styles
6

Osorio-Zuluaga, Germán Augusto, Luis Gonzalo Sánchez-Giraldo, and Néstor Darío Duque-Mendez. "Técnicas de minería de datos aplicadas a la valoración de ambientes creativos." Respuestas 14, no. 1 (May 5, 2016): 77–83. http://dx.doi.org/10.22463/0122820x.532.

Full text
Abstract:
En este trabajo se presentan los resultados de la aplicación de algunas técnicas de Minería de Datos (DM) sobre la información de una investigación realizada por la Universidad Nacional de Colombia - Sede Manizales en los años 2004 y 2005 en veintitrés empresas de la ciudad, con el fin de determinar el estado de los ambientes creativos para la innovación, desde las dimensiones psicosocial, didáctica y física. Se consideran las técnicas de Análisis Discriminante Lineal (LDA), Análisis de Componentes Principales (PCA) y Análisis de Varianza Multivariado (MANOVA) de un camino para tareas de orden predictivo y descriptivo. Palabras Clave: Minería de datos; creatividad; análisis discriminante; análisis de varianza; análisis de componentes principales
APA, Harvard, Vancouver, ISO, and other styles
7

Lopez Castaño, Héctor Fabio, Jessica Almeida Braga, and Max Brandão de Oliveira. "Análisis de variables productivas y socio-empresariales de productores de aguacate hass de dos municipios del Cauca para la creación de indicadores para la toma de decisiones del sector rural." Revista de Investigación Agraria y Ambiental 11, no. 2 (July 7, 2020): 29–41. http://dx.doi.org/10.22490/21456453.3159.

Full text
Abstract:
Contextualización: En el artículo se aborda la aplicación de técnicas de análisis de datos multivariados en el sector agro, con el propósito de caracterizar a dos grupos de agricultores de aguacate hass, a partir de los datos que recogen las entidades que tradicionalmente prestan asistencia técnica rural en el país, las unidades municipales de asistencia técnica (UMATAS) y facilitar la toma de datos en campo y arrojando luces sobre la creación de nuevos indicadores de desempeño. Vacío de conocimiento: Deficiente aplicación de métodos e instrumentos de análisis de datos en el proceso de asistencia técnica rural, que permitan definir recomendaciones de actividades, insumos y manos de obra más específicas a la realidad de las distintas asociaciones o individuos de productores agrícolas Objetivos: 1) Analizar los datos recogidos a través del instrumento de diagnóstico a las fincas RUAT que realizan las Umatas en cumplimiento de su papel de acompañamiento técnico rural; 2) Aplicar las técnicas estadísticas de clasificación y organización de datos más pertinente a dicho instrumento de caracterización; y 3) Determinar la importancia que cumplen para la construcción de indicadores las variables que se recogen en los instrumentos de diagnóstico a las fincas. Metodología: A partir de la revisión de varios referentes teóricos sobre los pasos necesarios para la creación y selección de indicadores, se siguieron las siguientes etapas metodológicas: Desarrollo de un marco conceptual, selección de variables, normalización de los datos, análisis multivariado y ponderación de la información; otros pasos posteriores como la agregación de la información, análisis de robustez y sensibilidad, podrán ser parte de subsiguientes trabajos. Resultados y conclusiones: Se encontró que las variables que tuvieron mayor peso en la caracterización y agrupación de los productores fueron las pertenecientes al grupo de las buenas prácticas agrícolas y al de la producción, demostrando que con solo 8 variables se puede tener una buena aproximación a la caracterización de los productores, en lugar de las más de 36 variables de las que se compone el instrumento de diagnóstico denominado Registro de Usuarios de Asistencia Técnica (RUAT)
APA, Harvard, Vancouver, ISO, and other styles
8

Ondé Pérez, Daniel, and Jesús María Alvarado Izquierdo. "Análisis de clases latentes como técnica de identificación de tipologías." International Journal of Developmental and Educational Psychology. Revista INFAD de Psicología. 5, no. 1 (September 1, 2019): 251. http://dx.doi.org/10.17060/ijodaep.2019.n1.v5.1641.

Full text
Abstract:
En Psicología es frecuente encontrar situaciones en las que se necesita realizar algún tipo de clasificación de personas en subgrupos o clases. Existen técnicas de análisis multivariado como el Análisis Clúster Jerárquico (HCA) que se utilizan habitualmente para este fin. Actualmente, existe un interés creciente por la técnica de Análisis de Clases Latentes (LCA), si bien es una técnica relativamente poco conocida y utilizada. Varios autores han destacado que el LCA presenta importantes ventajas respecto al HCA, en especial que el LCA permite obtener medidas de bondad de ajuste. El objetivo de este trabajo es presentar varias aplicaciones del LCA tanto a partir de un estudio de simulación como a partir de datos reales, y comparar el desempeño de esta técnica frente al HCA. Los resultados a partir de la simulación indican que el LCA tiene una elevada capacidad para detectar estructuras de clase. Los resultados del estudio a partir de datos reales muestran que las distintas clases o mixturas presentes en los datos pueden estar solapadas, lo que dificulta la agrupación de clases al aplicar LCA. El HCA puede ser una buena herramienta de análisis para el investigador aplicado, ya que puede orientar sobre el mejor modelo de LCA que se debería interpretar. En contextos de investigación en los que el modelo teórico no es claro, se recomienda utilizar ambas técnicas con el fin de buscar convergencia de resultados.
APA, Harvard, Vancouver, ISO, and other styles
9

Escudero, Camila. "El análisis temático como herramienta de investigación en el área de la Comunicación Social." La Trama de la Comunicación 24, no. 2 (September 26, 2020): 089–100. http://dx.doi.org/10.35305/lt.v24i2.746.

Full text
Abstract:
Procedente del Psicología, el Análisis temático (AT) es una técnica de investigación para identificar, analizar e informar patrones, es decir, temas dentro de los datos recopilados empíricamente. Organiza y describe mínimamente el conjunto de datos en detalle, e interpreta aspectos del tema. Así, este artículo pretende presentarla como una opción más de instrumento de investigación dentro del campo de la Comunicación Social, para investigaciones de enfoque cualitativo. A partir de la investigación bibliográfica y un breve análisis exploratorio, se pueden ver las ventajas y desventajas de la AT, su diferencia e inserción en otras técnicas o recursos teóricos y metodológicos relacionados y ampliamente difundidos (Análisis del Discurso y del Contenido, principalmente) y su posibilidad de garantizar un rigor técnico-metodológico frente a la flexibilidad y dinámica del área comunicacional.
APA, Harvard, Vancouver, ISO, and other styles
10

De Corso Sicilia, Giuseppe Bernardo, and Maribel Pinilla Rivera. "Métodos gráficos de análisis exploratorio de datos espaciales con variables espacialmente distribuidas." Cuadernos Latinoamericanos de Administración 13, no. 25 (December 15, 2017): 92–104. http://dx.doi.org/10.18270/cuaderlam.v13i25.2417.

Full text
Abstract:
En el presente artículo se exponen, de manera compacta, los aspectos teóricos más relevantes de econometría espacial en la etapa de exploración estadística de datos, mediante las técnicas del análisis exploratorio de datos espaciales (AEDE), así como la fase previa a la formulación del modelo econométrico espacial. Con este artículo, se brindan herramientas para describir y visualizar distribuciones espaciales, que permitan darle validez a un modelo econométrico y que herramientas de la econometría tradicional no incorporan al rezagar efectos espaciales. La metodología utilizada se desarrolla a partir del AEDE y sus aplicaciones; para tal fin, se analizan las técnicas gráficas y estadísticas del AEDE que ofrece el software GeoDa 1.0.1, desarrollado por el profesor Luc Anselin de la Arizona State University, en dos dimensiones: (1) el análisis de datos univariante, es decir, se estudian las características de distribución espacial con respecto a una sola variable y (2) el análisis de datos multivariante, que involucra más de dos variables. Finalmente, se concluye que el AEDE debe constituir el primer eslabón en un análisis para la toma de decisiones en investigaciones de tipo ambiental, social y económica, cuyas técnicas principales a través de la estadística y la representación gráfica, posibilitan el análisis de las distribuciones espaciales y agrupamientos espaciales.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Análisis de datos: técnicas"

1

Rantes, García Mónica Tahiz, and Quispe Lizbeth María Cruz. "Detección de fraudes usando técnicas de clustering." Universidad Nacional Mayor de San Marcos. Programa Cybertesis PERÚ, 2010. http://www.cybertesis.edu.pe/sisbib/2010/rantes_gm/html/index-frames.html.

Full text
Abstract:
El fraude con tarjetas de crédito es uno de los problemas más importantes a los que se enfrentan actualmente las entidades financieras. Si bien la tecnología ha permitido aumentar la seguridad en las tarjetas de crédito con el uso de claves PIN, la introducción de chips en las tarjetas, el uso de claves adicionales como tokens y mejoras en la reglamentación de su uso, también es una necesidad para las entidades bancarias, actuar de manera preventiva frente a este crimen. Para actuar de manera preventiva es necesario monitorear en tiempo real las operaciones que se realizan y tener la capacidad de reaccionar oportunamente frente a alguna operación dudosa que se realice. La técnica de Clustering frente a esta problemática es un método muy utilizado puesto que permite la agrupación de datos lo que permitiría clasificarlos por su similitud de acuerdo a alguna métrica, esta medida de similaridad está basada en los atributos que describen a los objetos. Además esta técnica es muy sensible a la herramienta Outlier que se caracteriza por el impacto que causa sobre el estadístico cuando va a analizar los datos
The credit card fraud is one of the most important problems currently facing financial institutions. While technology has enhanced security in credit cards with the use of PINs, the introduction of chips on the cards, the use of additional keys as tokens and improvements in the regulation of their use, is also a need for banks, act preemptively against this crime. To act proactively need real-time monitoring operations are carried out and have the ability to react promptly against any questionable transaction that takes place. Clustering technique tackle this problem is a common method since it allows the grouping of data allowing classifying them by their similarity according to some metric, this measure of similarity is based on the attributes that describe the objects. Moreover, this technique is very sensitive to Outlier tool that is characterized by the impact they cause on the statistic when going to analyze the data
APA, Harvard, Vancouver, ISO, and other styles
2

Cruz, Quispe Lizbeth María, and García Mónica Tahiz Rantes. "Detección de fraudes usando técnicas de clustering." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2010. https://hdl.handle.net/20.500.12672/2644.

Full text
Abstract:
El fraude con tarjetas de crédito es uno de los problemas más importantes a los que se enfrentan actualmente las entidades financieras. Si bien la tecnología ha permitido aumentar la seguridad en las tarjetas de crédito con el uso de claves PIN, la introducción de chips en las tarjetas, el uso de claves adicionales como tokens y mejoras en la reglamentación de su uso, también es una necesidad para las entidades bancarias, actuar de manera preventiva frente a este crimen. Para actuar de manera preventiva es necesario monitorear en tiempo real las operaciones que se realizan y tener la capacidad de reaccionar oportunamente frente a alguna operación dudosa que se realice. La técnica de Clustering frente a esta problemática es un método muy utilizado puesto que permite la agrupación de datos lo que permitiría clasificarlos por su similitud de acuerdo a alguna métrica, esta medida de similaridad está basada en los atributos que describen a los objetos. Además esta técnica es muy sensible a la herramienta Outlier que se caracteriza por el impacto que causa sobre el estadístico cuando va a analizar los datos.
---The credit card fraud is one of the most important problems currently facing financial institutions. While technology has enhanced security in credit cards with the use of PINs, the introduction of chips on the cards, the use of additional keys as tokens and improvements in the regulation of their use, is also a need for banks, act preemptively against this crime. To act proactively need real-time monitoring operations are carried out and have the ability to react promptly against any questionable transaction that takes place. Clustering technique tackle this problem is a common method since it allows the grouping of data allowing classifying them by their similarity according to some metric, this measure of similarity is based on the attributes that describe the objects. Moreover, this technique is very sensitive to Outlier tool that is characterized by the impact they cause on the statistic when going to analyze the data.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
3

Gobantes, Marin Francisco. "Estudio de Técnicas de Recolección de Datos para la Investigación de Mercados: ¿Que Técnica Usar Para Cada Proyecto?" Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103970.

Full text
Abstract:
No autorizada por el autor para ser publicada a texto completo
La investigación de mercados es parte integral de los estudios de marketing que hoy en día se realizan en Chile. En particular, los que son a base de encuestas. Esta memoria estudia la relación que existe entre los tópicos de una encuesta y estratos de la población chilena con las diferencias en los resultados que presentan las distintas técnicas de recolección de datos no presenciales. El objetivo es poder identificar cómo cambiará la respuesta de un respondente al usar una técnica de recolección, un tópico de pregunta, y un estrato de la muestra determinado. La metodología utilizada se inició conel Levantamiento de Información Secundaria. Estudios Similares, donde se estudia el comportamiento de las personas en relación a los valores que estos tienen y sus distintas respuestas ante tópicos diferentes. Los errores muestrales, y estudios sobre comparación de escalas, de donde se puede extraer información importante acerca de los pasos metodológicos aplicados en esta memoria. El siguiente paso consistió en el diseño del Modelo de Espacio Encuesta y todas sus componentes. Luego, se procedió al diseño mismo de las encuestas. Lo que se busca es comparar metodologías, por lo que se debió generar cuestionarios para cada una de estas, de manera que los resultados obtenidos estén en la misma escala o “lenguaje”.Se analizó e interpretó los resultados obtenidos. Para esto, se utilizó el análisis de las brechas desarrollado con esta intención. Los principales hallazgos encontrados con esta metodología son que: La tasa de rechazo varía si se cambia el tópico de la encuesta. Al variar la técnica de recolección disminuyendo el nivel de interacción entre el encuestador y el encuestado (de CATI a IVR) se generan brechas no constantes entre los resultados; disminuye la media; aumenta la varianza, aunque en menor grado que la media, y el error asociado a esa varianza por la polarización de las respuestas; y cambia la forma en que el respondente conecta las variables preguntadas, lo que genera un cambio en la forma en que la variable global se ve explicada por las variables independientes. Las brechas generadas por el cambio de técnica se pueden predecir en cierto grado por la “incomodidad” del tópico de la pregunta, donde una pregunta más incomoda tiene una brecha mayor. Bajo el supuesto tomado, la deshonestidad aumenta al haber menos interacción entre el respondente y el encuestador o cuando los tópicos son más complicados de responder.
APA, Harvard, Vancouver, ISO, and other styles
4

Valerio, Jiminián Miguel Ernesto. "Nuevas técnicas de control social: análisis jurídico de las bases de datos de ADN." Doctoral thesis, Universitat Pompeu Fabra, 2016. http://hdl.handle.net/10803/384313.

Full text
Abstract:
La posibilidad estatal de almacenar información genética plantea importantes retos para las ciencias penales, pues las Bases de Datos de ADN agudizan la tensión entre los principios de libertad, seguridad e igualdad. Esta tensión es especialmente fuerte cuando los Estados tratan de conservar identificadores genéticos de las personas que han sido detenidas policialmente sin formularles cargos judiciales o de las que han sido absueltas de toda responsabilidad penal. Esta cuestión ha sido analizada, entre otros, por el Tribunal Europeo de Derechos Humanos y la Corte Suprema de Estados Unidos, alcanzando en ambos casos conclusiones distintas. En esta tesis se hace un análisis jurídico de la conservación estatal de perfiles genéticos con fines forenses y se pretende definir un modelo de registro equitativo que garantice los derechos fundamentales.
The State ability to store genetic information raises important challenges for criminal sciences, as DNA Databases exacerbate the tension among the principles of freedom, safety and equality. This tension is particularly strong when the States seek to preserve genetic identifiers of individuals that have been arrested by the police without any formal accusation or of those who have been acquitted of all penal responsibilities. This issue has been analyzed, inter alia, by the European Court of Human Rights and the Supreme Court of the United States, reaching, in both cases, different conclusions. In this Thesis, we have made a juridical analysis of the state conservation of genetic profiles for forensic purposes and it is pretended to define an equitable registration model that guarantees the fundamental rights of individuals.
APA, Harvard, Vancouver, ISO, and other styles
5

Morales, Jacob Fidel Elías. "Aplicación e interpretación de técnicas de reducción de datos según escalamiento óptimo: (Análisis de correspondencia múltiple y análisis de componentes principales categóricos)." Tesis, Universidad de Chile, 2004. http://www.repositorio.uchile.cl/handle/2250/113469.

Full text
Abstract:
Sociólogo
El presente texto se realiza con el fin de explorar la estructura de las técnicas de reducción de datos del modulo categorías del programa estadístico SPSS. Dicha exploración permitirá potenciar futuros análisis y mejorar la complementación de la información digital y analógica de las técnicas. El documento se divide en cuatro partes generales: La primera parte corresponde al planteamiento del problema, Objetivos y metodología utilizada en este texto. La segunda parte contiene el desarrollo del análisis de correspondencias múltiple. Para ello, se utiliza un esquema de flujo que representa los principales momentos de decisión del analista en la aplicación. El esquema de flujo se complementa con la aplicación concreta de la técnica a datos reales. La tercera parte contiene el desarrollo del análisis de componentes principales categóricos (no lineal). Para ello, se utiliza el mismo procedimiento al análisis de correspondencia múltiple. La cuarta parte muestra las conclusiones del estudio. Las conclusiones se ha dividido en dos partes: La primera parte muestra una “recurrencia operativa” descubierta durante la construcción de este texto, que es la ubicación de las variables independientes e incorrelacionadas en el modelo; La segunda parte muestra las conclusiones generales del texto según los objetivos investigados
APA, Harvard, Vancouver, ISO, and other styles
6

Díaz, Barriga Oscar Antonio. "Diseño de un proceso computacional basado en técnicas de minería de datos para el análisis del fenómeno de "El Niño"." Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/9904.

Full text
Abstract:
El Perú es afectado recurrentemente por el fenómeno El Niño, el cual es un fenómeno climático que consiste en el aumento de la temperatura del mar en el Pacifico Ecuatorial. Este a su vez forma parte del ENSO (El Niño - Oscilación del Sur) que tiene un periodo de actuación de 2 a 7 años, con una fase cálida conocida como El Niño y una fase fría, La Niña. En la actualidad mediante un juicio experto se analizan las diversas fuentes de datos heterogéneas para poder encontrar posibles correlaciones útiles entre ellos. En el presente trabajo se propone un proceso computacional basado en técnicas de minería de datos que permita determinar la existencia de correlaciones espacio-temporales en relación a la temperatura superficial del mar y las variables meteorológicas pertenecientes a las regiones de la costa norte del Perú, en el periodo 2015 al 2016, último intervalo de tiempo en el que se presentó El Nino. Para esto se utiliza una metodología basada en KDD (Knowledge Discovery in Database), la cual está conformada por una serie de pasos como: la recolección de diferentes fuentes de datos, la integración en una base de datos explotable, limpieza y pretratamiento de los datos, creación de escenarios que permitan validar las posibles correlaciones, extracción de patrones mediante la librería SPMF y finalmente una propuesta de visualización, de los patrones encontrados, que permita comprender mejor el fenómeno. Los resultados obtenidos muestran la existencia de correlaciones espaciotemporales en las regiones del norte del Perú principalmente entre la temperatura de la superficie del mar y el caudal de los ríos de la costa, siendo estas correlaciones validadas por un experto miembro del IGP.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
7

Estrada, Gomero Daniel Carmelo. "Análisis del estándar celular TD-SCDMA y comparación técnica con WCDMA." Master's thesis, Universidad Nacional Mayor de San Marcos, 2010. https://hdl.handle.net/20.500.12672/9548.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor
Realiza un análisis de las características técnicas de TD-SCDMA (Acceso síncrono múltiple por división de código y división de tiempo), el cual ha sido aprobado por la UIT como estándar oficial 3G. TD-SCDMA es un estándar 3G desarrollado por la Academia China de Tecnología de Telecomunicaciones y utiliza acceso múltiple por división de código (CDMA) y multiplexación por división de tiempo (TDD) para soportar en un mismo canal físico transmisiones de downlink y uplink. Este aspecto, junto con otras características técnicas de TD-SCDMA, son estudiados y evaluados para determinar las ventajas técnicas que ofrece con respecto a WCDMA. Así mismo, se realiza una comparación integral entre WCDMA y TD-SCDMA enfocando los aspectos de capacidad y cobertura. En esta comparación se incluirá el uso de HSDPA para ambas tecnologías. Por último se exponen aspectos comerciales sobre ambas tecnologías y se concluye con una recomendación sobre la viabilidad de implementar TD-SCDMA para un operador celular. Se deja en claro que tarde o temprano el mercado de servicios 3G va a despegar de manera agresiva y para entonces los operadores de red y proveedores de contenidos deberán estar preparados para prestar servicios avanzados relacionados con internet y aplicaciones basados en IP de alta velocidad, comercio electrónico, servicios basados en la ubicación del usuario, etc. En la actualidad, los 3 operadores de telefonía móvil nacionales ya tienen implementadas y en fase de desarrollo sus redes 3G y por esta razón no se aborda un estudio de factibilidad de implementar 3G, simplemente ya es una realidad.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
8

Frías, López Cristina. "Desarrollo de técnicas bioinformáticas para el análisis de datos de secuenciación masiva en sistemática y genómica evolutiva: Aplicación en el análisis del sistema quimiosensorial en artrópodos." Doctoral thesis, Universitat de Barcelona, 2019. http://hdl.handle.net/10803/668283.

Full text
Abstract:
Las tecnologías de secuenciación de próxima generación (NGS) proporcionan datos potentes para investigar cuestiones biológicas y evolutivas fundamentales, como estudios relacionados con la genómica evolutiva de la adaptación y la filogenética. Actualmente, es posible llevar a cabo proyectos genómicos complejos analizando genomas completos y / o transcriptomas, incluso de organismos no modelo. En esta tesis, hemos realizado dos estudios complementarios utilizando datos NGS. En primer lugar, hemos analizado el transcriptoma (RNAseq) de los principales órganos quimiosensoriales del quelicerado Macrothele calpeiana, Walckenaer, 1805, la única araña protegida en Europa, para investigar el origen y la evolución del sistema quimiosensorial (SQ) en los artrópodos. El SQ es un proceso fisiológico esencial para la supervivencia de los organismos, y está involucrado en procesos biológicos vitales, como la detección de alimentos, parejas o depredadores y sitios de ovoposición. Este sistema, está relativamente bien caracterizado en hexápodos, pero existen pocos estudios en otros linajes de artrópodos. El análisis de nuestro transcriptoma permitió detectar algunos genes expresados en los supuestos órganos quimiosensoriales de los quelicerados, como cinco NPC2 y dos IR. Además, también detectamos 29 tránscritos adicionales después de incluir en los perfiles de HMM nuevos miembros del SQ de genomas de artrópodos recientemente disponibles, como algunos genes de las familias de los SNMP, ENaC, TRP, GR y una OBP-like. Desafortunadamente, muchos de ellos eran fragmentos parciales. En segundo lugar, también hemos desarrollado algunas herramientas bioinformáticas para analizar datos de RNAseq y desarrollar marcadores moleculares. Los investigadores interesados en la aplicación biológica de datos NGS pueden carecer de la experiencia bioinformática requerida para el tratamiento de la gran cantidad de datos generados. En este contexto, principalmente, es necesario el desarrollo de herramientas fáciles de usar para realizar todos los procesos relacionados con el procesamiento básico de datos NGS y la integración de utilidades para realizar análisis posteriores. En esta tesis, hemos desarrollado dos herramientas bioinformáticas con interfaz gráfica, que permite realizar todos los procesos comunes del procesamiento de datos NGS y algunos de los principales análisis posteriores: i) TRUFA (TRanscriptome User-Friendly Analysis), que permite analizar datos RNAseq de organismos que no modelos, incluyendo la anotación funcional y el análisis de expresión génica diferencial; y ii) DOMINO (Development Of Molecular markers In Non-model Organisms), que permite identificar y seleccionar marcadores moleculares apropiados para análisis de biología evolutiva. Estas herramientas han sido validadas utilizando simulaciones por ordenador y datos experimentales, principalmente de arañas.
The Next Generation Sequencing (NGS) technologies are providing powerful data to investigate fundamental biological and evolutionary questions including phylogenetic and adaptive genomic topics. Currently, it is possible to carry out complex genomic projects analyzing the complete genomes and/or transcriptomes even in non-model organisms. In this thesis, we have performed two complementary studies using NGS data. Firstly, we have analyzed the transcriptome (RNAseq) of the main chemosensory organs of the chelicerate Macrothele calpeiana, Walckenaer, 1805, the only spider protected in Europe, to investigate the origin and evolution of the Chemosensory System (CS) in arthropods. The CS is an essential physiological process for the survival of organisms, and it is involved in vital biological processes, such as the detection of food, partners or predators and oviposition sites. This system, which has it relatively well characterized in hexapods, is completely unknown in other arthropod lineages. Our transcriptome analysis allowed to detect some genes expressed in the putative chemosensory organs of chelicerates, such as five NPC2s and two IRs. Furthermore, we detected 29 additional transcripts after including new CS members from recently available genomes in the HMM profiles, such as the SNMPs, ENaCs, TRPs, GRs and one OBP-like. Unfortunately, many of them were partial fragments. Secondly, we have also developed some bioinformatics tools to analyze RNAseq data, and to develop molecular markers. Researchers interested in the biological application of NGS data may lack the bioinformatic expertise required for the treatment of the large amount of data generated. In this context, the development of user-friendly tools for common data processing and the integration of utilities to perform downstream analysis is mostly needed. In this thesis, we have developed two bioinformatics tools with an easy to use graphical interface to perform all the basics processes of the NGS data processing: i) TRUFA (TRanscriptome User-Friendly Analysis), that allows analyzing RNAseq data from non-model organisms, including the functional annotation and differential gene expression analysis; and ii) DOMINO (Development of Molecular markers in Non-model Organisms), which allows identifying and selecting molecular markers appropriated for evolutionary biology analysis. These tools have been validated using computer simulations and experimental data, mainly from spiders.
APA, Harvard, Vancouver, ISO, and other styles
9

Sandoval, Linares Angel Gabriel. "Análisis de métodos y técnicas de limpieza de datos existentes y aplicación en un sistema CRM para una institución educativa limeña." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12619.

Full text
Abstract:
En la actualidad, las organizaciones emplean varios sistemas y varias fuentes de información para las actividades del día a día, y buscan tener toda esta información reunida e integrada en una única base de datos llamada data warehouse ya que permite fortalecer el trabajo del día a día, el análisis de datos y la toma de decisiones. Sin embargo, la información guardada debe de ser de buena calidad ya que una baja calidad de datos puede impactar severamente en el desempeño de la organización, la satisfacción del cliente, la toma de decisiones y reducir la habilidad de la organización de ejecutar correctamente sus planes estratégicos. En este contexto, aparece un problema crítico: la baja calidad de la información en los sistemas; y lo preocupante es que algunas empresas ignoran los impactos y consecuencias mencionados. Un sistema de información muy adquirido y usado por organizaciones Business-to- Consumer (B2C por su abreviatura en inglés) es el sistema de Gestión de Relación con el Cliente (Customer Relationship Management - CRM). Un sistema CRM es un sistema enfocado en la gestión de clientes. Los registros más importantes pertenecen a la entidad “clientes” y esta información es obtenida por las organizaciones a través de varios canales o mediante la compra de bases de datos de terceros. Finalmente, toda la información es almacenada en el data warehouse para ser consumida de allí para la toma de decisiones. Los problemas específicos para un sistema CRM son: registros duplicados de clientes, datos faltantes de un cliente como su teléfono o dirección, datos incorrectos, datos obsoletos que en algún momento fueron correctos y atributos con valores diferentes para un mismo cliente. Mantener estos registros limpios debe ser una actividad vital para la organización. Las instituciones educativas no son ajenas a esta herramienta de soporte CRM, y con el transcurso de los años, están apostando por adoptar sistemas CRM en las organizaciones (KaptureCRM, 2017). En este contexto, tener los datos de los estudiantes limpios es una tarea primordial para la organización. El desarrollo de este proyecto se enfoca en un análisis de los algoritmos, técnicas y métodos usados para la limpieza de datos, la implementación de procesos ETL (extracción, transformación y carga) que permitan la limpieza de cada fuente de datos, la integración de la información a una base de datos transaccional, la carga de la información de la base de datos transaccional a un data warehouse para su próxima explotación y, adicionalmente, el modelamiento de nuevos procesos de negocio para prevenir y mantener la correcta calidad de los datos en el sistema transaccional, para la institución educativa sobre la cual se realiza el proyecto.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
10

Molina, Salgado Javier Ignacio. "Plataforma de análisis e identificación de demanda de competencias laborales en los avisos de trabajo de la Bolsa Nacional de Empleo mediante técnicas de Text Mining." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/151668.

Full text
Abstract:
Ingeniero Civil Industrial
La Bolsa Nacional de Empleo (BNE), es una plataforma laboral estatal, pública y gratuita. Esta plataforma sirve de intermediario entre empleadores y personas que se encuentran en búsqueda de trabajo. Esta iniciativa depende del Ministerio del Trabajo y Previsión Social en conjunto con el SENCE, Servicio Nacional de Capacitación y Empleo. Por otro lado, existen competencias laborales, las cuales son definidas como habilidades, aptitudes y conocimientos que necesarios para la ejecución de alguna función dentro de una actividad laboral o puesto de trabajo. Estas son requeridas por los trabajos para ser correctamente ejecutados y también son poseídas por cada trabajador producto de su formación y experiencia. Esta memoria tiene dos objetivos principales: el primero es detectar las competencias laborales que requieren los avisos de trabajo de la BNE y en segundo lugar diseñar e implementar una plataforma de análisis para la información generada, de manera de disponer de una herramienta de apoyo a la gestión y decisión para las entidades involucradas. Para cumplir con dichas metas se desarrolló un sistema que utilizó técnicas de text mining, además de integrar un catálogo de competencias laborales junto a un motor de búsqueda para generar coincidencias entre las competencias laborales y los avisos de trabajo. Luego con la información generada se diseñó e implementó una plataforma de análisis (un data warehouse) accesible desde la web y que permite realizar distintos análisis de las competencias laborales demandadas segmentando por factores como temporalidad, sector económico, tipo de trabajo, entre otros. Finalmente, se desarrolló una herramienta de detección de competencias laborales y una plataforma para su análisis a niveles agregados o segmentados con una precisión del 95% para los grupos más altos de coincidencias. Las conclusiones de esta memoria apuntan a utilizar el trabajo desarrollado como base para nuevas líneas de investigación y aplicaciones prácticas en las distintas plataformas laborales, así como posibles mejoras al sistema actual.
Este trabajo ha sido financiado parcialmente por Proyecto FONDECYT Regular 1151479 y Proyecto CONICYT PIA SOC 1402
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Análisis de datos: técnicas"

1

Oñate, Pablo. Análisis de datos electorales. [Madrid]: Centro de Investigaciones Sociológicas, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Reis, Carlos. Fundamentos y técnicas del análisis literario. Madrid: Gredos, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Análisis masivo de datos y contraterrorismo. Valencia: Tirant lo Blanch, 2009.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Gimeno, Rafael Balart. Técnicas experimentales de análisis térmico de polímeros. Valencia: Editorial UPV, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Pulido, Alejandro González. Conceptos y técnicas básicas del análisis demográfico. 2nd ed. Bogotá: Universidad Externado de Colombia, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ramos, María Isabel Castillo, Celia Hernández Cortés, and Jaime Ornelas Delgado. Teorías y técnicas para el análisis regional. México, D.F: Ediciones EyC, 2014.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Ana lisis de datos multivariantes. Madrid: McGraw-Hill/Interamericana, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Iriarte, Gregorio. Análisis crítico de la realidad: Compendio de datos actualizados. Cochabamba: Grupo Editorial "Kipus", 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Análisis crítico de la realidad: Compendio de datos actualizados. Cochabamba: Grupo Editorial "Kipus", 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Iriarte, Gregorio. Análisis crítico de la realidad: Compendio de datos actualizados. [Cochabamba, Bolivia]: Grupo Editorial Kipus, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Análisis de datos: técnicas"

1

Galán-Cuenca, Álvaro, Ricardo Vázquez-Martín, Anthony Mandow, Jesús Morales, and Alfonso García-Cerezo. "Análisis de técnicas de aumento de datos y entrenamiento en YOLOv3 para detección de objetos en imágenes RGB y TIR del UMA-SAR Dataset." In XLII JORNADAS DE AUTOMÁTICA : LIBRO DE ACTAS, 686–94. Servizo de Publicacións da UDC, 2021. http://dx.doi.org/10.17979/spudc.9788497498043.686.

Full text
Abstract:
El uso de imágenes de los espectros visible (RGB) e infrarrojo térmico (TIR) para la detección de objetos puede resultar crucial en aplicaciones donde las condiciones de visibilidad están limitadas, como la robótica para búsqueda y rescate en catástrofes. Para ello resulta beneficioso analizar cómo las técnicas de aprendizaje profundo basadas en redes neuronales convolucionales (CNN) pueden aplicarse a ambas modalidades. En este artículo se analizan diferentes configuraciones y parámetros para el entrenamiento de CNN tanto para imágenes térmicas como para imágenes equivalentes del espectro visible. En concreto, se aborda el problema del sobre-entrenamiento para determinar una configuración eficaz de técnicas de aumento de datos y parada temprana. El caso de estudio se ha realizado con la red de código abierto YOLOv3, pre-entrenada con el dataset RGB COCO y optimizada (o re-entrenada) con el conjunto público de datos UMA-SAR dataset, que incluye pares de imágenes RGB y TIR obtenidas en ejercicios realistas de rescate.
APA, Harvard, Vancouver, ISO, and other styles
2

Olarte Cabana, Jairo Alberto. "Análisis de contenido, alternativa al diseño de instrumentos tradicionales para el levantamiento de información. Un estudio empírico." In Tendencias en la investigación universitaria. Una visión desde Latinoamérica. Volumen IX, 42–58. Fondo Editorial Universitario Servando Garcés de la Universidad Politécnica Territorial de Falcón Alonso Gamero / Alianza de Investigadores Internacionales S.A.S., 2020. http://dx.doi.org/10.47212/tendencias2020vol.ix.4.

Full text
Abstract:
En la investigación valor adicionado a partir de la eficiencia productiva del capital intelectual en grandes empresas agroindustriales del departamento del Magdalena, Colombia, resultó limitado el acceso a información primaria que permitiera identificar si las organizaciones tomadas como estudio de caso realizan mediciones sobre la productividad de su capital intelectual y en sí, si aplicaban el Value Added Intellectual Coefficient -VAIC por sus siglas en inglés-; lo anterior, se toma como recurso para identificar la forma en que el análisis de contenido puede ser considerado una alternativa al diseño tradicional de instrumentos para el levantamiento de información. Metodológicamente, el trabajo se define como no experimental, su alcance es descriptivo, utilizó fuentes de información documentales y cuenta con un enfoque cualitativo. Tras el tratamiento de los corpus obtenidos en las empresas que integraron la muestra, se desarrolló suficiente inferencia para concluir que en estas no se aplica la metodología VAIC; adicionalmente, los resultados evidencian que la técnica de análisis de contenido puede vislumbrar nuevas oportunidades en el estudio de una realidad y obtener datos relevantes que apoyen el proceso investigativo, al tiempo, evita que la recolección de información sea un obstáculo que desvirtué los avances de la investigación en ciencias sociales, hecho que es posible gracias al uso de técnicas integras y rigurosas, entre ellas, el análisis de contenidos.
APA, Harvard, Vancouver, ISO, and other styles
3

Moreno Ospina, Judy Marcela, and Mario A. Yandar-Lobon. "Analítica de negocios al transporte de carga por carretera." In Industria 4.0: Desde la perspectiva organizacional, 106–21. Fondo Editorial Universitario Servando Garcés de la Universidad Politécnica Territorial de Falcón Alonso Gamero / Alianza de Investigadores Internacionales S.A.S., 2020. http://dx.doi.org/10.47212/industria4.0-7.

Full text
Abstract:
La analítica de datos es una tecnología emergente altamente difundida y que permite dar un trasfondo diferente a ciertos datos existentes, normalmente su finalidad es muy variada dependiendo del objetivo de la investigación y la misma data puede servir de esta manera para múltiples propósitos. En el presente apartado se busca contextualizar la aplicación de una de las tecnologías emergentes abordadas en el libro, analítica de negocios, aplicada en el contexto de transporte de carga y seguros, utilizando la metodología de investigación correlacional a partir del análisis de datos abiertos de manifiestos de carga en el año 2015, en donde se abordan variables como origen, destino, valores de carga, mercancía transportada, entre otros; generando correlación con datos de procesos judiciales de la Fiscalía General de Colombia. Finalmente, se estudian algunas técnicas de tecnologías 4.0 para encontrar valor sobre la información haciendo uso de una metodología correlacional a partir del uso de redes complejas para hallar relación entre diferentes variables y se socializan resultados con la empresa Grupo OET, compañía de apoyo logístico en el sector de transporte, entre los que se resalta una nueva propuesta para explorar y analizar conjuntos de datos presentando un enfoque diferente al que se tuvo en la concepción de los mismos, así mismo presentar a las organizaciones del sector industrial un aporte para la toma de decisiones, interpretando los resultados obtenidos para el contexto del transporte de carga.
APA, Harvard, Vancouver, ISO, and other styles
4

Parra Galaviz, Román Edén, Manuel de Jesús Pérez Valdez, Jesús Ramón Rodríguez Apodaca, Hugo Humberto Piña Ruiz, and Claudia Selene Castro Estrada. "Implementación de fotografías aéreas y sistemas de información geográfica para la determinación de áreas y volúmenes de corteza vegetal." In Tendencias en la investigación universitaria. Una visión desde Latinoamérica. Volumen XIII, 66–85. Fondo Editorial Universitario Servando Garcés de la Universidad Politécnica Territorial de Falcón Alonso Gamero / Alianza de Investigadores Internacionales S.A.S., 2020. http://dx.doi.org/10.47212/tendencias2020vol.xiii.5.

Full text
Abstract:
La vegetación representa una de las variables de mayor interés en la mitigación de los efectos del cambio climático, por tal motivo, su análisis debe ser considerado por diferentes especialistas desde un punto de vista investigativo que aporte a los Objetivos de Desarrollo Sostenible (ODS). El presente estudio tiene como finalidad establecer nuevas alternativas de muestreo de corteza vegetal para su ubicación, cuantificación y distribución sobre la superficie terrestre, empleando para ello una combinación de técnicas tales como: fotogrametría digital, sistemas de información geográfica (SIG) y análisis multitemporales. La metodología empleada es de tipo experimental con enfoque cuantitativo, basada en la utilización de datos fotogramétricos, llevados a un proceso de validación rigurosa, en función de dos variables; áreas y volúmenes de corteza vegetal, aplicando procesos de teledetección a partir de filtros en ortofotografías. La zona seleccionada fue el emblemático “Cerro de la Memoria” ubicado en la Ciudad de Los Mochis, Sinaloa, México. Se realizaron vuelos aerofogramétricos en diferentes fechas, obteniéndose imágenes orto rectificadas del lugar. Mediante el empleo de una clasificación supervisada por el método de máxima verosimilitud, se dio respuesta a la primera variable (áreas de vegetación), mientras que en la segunda (volúmenes de vegetación) se recurrió a la confección y comparativa entre modelos digitales de elevación, específicamente modelos digitales de terreno y de vegetación. Se obtuvieron resultados relevantes en cuanto al uso de fotografías aéreas tomadas a baja altura, su procesamiento y el análisis en SIG, como punto de partida en el estudio de vegetación a través de imágenes de alta resolución.
APA, Harvard, Vancouver, ISO, and other styles
5

Benjumea Liñan, Edelsy, Tulia López Valera, and Marcela Gómez Cadavid. "Evolución y características de la evaluación de aprendizajes en el programa de enfermería, en una institución pública de educación superior." In Tendencias en la investigación universitaria. Una visión desde Latinoamérica. Volumen XI, 107–23. Fondo Editorial Universitario Servando Garcés de la Universidad Politécnica Territorial de Falcón Alonso Gamero / Alianza de Investigadores Internacionales S.A.S., 2020. http://dx.doi.org/10.47212/tendencias2020vol.xi.8.

Full text
Abstract:
El objetivo de este estudio es describir la evolución y características de la evaluación del aprendizaje, en el programa de Enfermería, durante el periodo 2008-2018. La evaluación, es un proceso dinámico y permanente, que permite valorar acciones y emitir juicios, que dependen del objeto y del sujeto. Este componente curricular, facilita información valiosa y confiable del proceso cognoscitivo de los estudiantes. El estudio, es cuantitativo de tipo descriptivo, se realizó en una población de 400 estudiantes de Enfermería; la muestra fue configurada con 190 personas; las técnicas e instrumentos fueron: cuestionario y análisis de documentos; la información, fue analizada conforme a los escritos y testimonios; la descripción de los datos encontrados en cuatro documentos: Proyectos Educativos Institucional de la Universidad, (2011 y 2016) y Proyectos Educativos del Programa de Enfermería (2006, 2014), los cuales, permitieron evidenciar en orden, la evolución de la evaluación en el programa de Enfermería. En efecto, ha evolucionado positivamente, pasando de evaluación tradicional a evaluación por proceso; no obstante, existen muchos aspectos conforme a la evaluación habitual, por ejemplo: el docente, es quien establece los criterios; la promoción de los estudiantes, depende concretamente de datos cuantitativos; la calificación, facilita la selección y la certificación; el medio más utilizado en la evaluación, es el examen escrito con preguntas en forma de test; por último, la evaluación diagnóstica, no es considerada como un eje importante en el proceso.
APA, Harvard, Vancouver, ISO, and other styles
6

Muñoz-Ruiz, Jorge Armando, and Néstor Enrique Amarís López. "Conocimientos del impuesto a las actividades económicas en los funcionarios tributarios del municipio La Cañada de Urdaneta." In Capital contable. Perspectivas con enfoque investigativo, 99–120. Fondo Editorial Remington, 2020. http://dx.doi.org/10.22209/9789585321830.c4.

Full text
Abstract:
En esta investigación se analizó la cultura tributaria de los funcionarios adscritos a la Dirección de Rentas del municipio La Cañada de Urdaneta según el nivel de conocimiento de estos sobre el impuesto a las actividades económicas (IAE). Este trabajo se fundamentó en los postulados teóricos de Armas y Colmenares (2009), Pombo (2009), Consejo Municipal (2016), Méndez (2004), Golía (2003) y Valdés (1996), entre otros trabajos. En este estudio, tipificado como descriptivo con una fase documental, los datos se recolectaron a través de la aplicación de una entrevista semiestructurada y el análisis de contenido. Como técnica para el análisis de los resultados se empleó el resumen lógico y la triangulación. Los hallazgos demostraron que, en términos generales, los funcionarios adscritos a la Dirección de Rentas tienen una referencia conceptual sobre el IAE, su objeto y alcance, sin embargo, durante la realización de la entrevista semiestructurada se evidenció que los mismos no utilizan un lenguaje técnico en materia tributaria e, incluso, se percibió que no dominan el contenido estricto de la ordenanza municipal que regula el IAE. Específicamente, al momento de conversar sobre los elementos del IAE y los procedimientos de fiscalización según la norma local, se constató la inconsistencia en el manejo del alcance normativo. Es importante resaltar que ello puede constituir una debilidad de la entidad territorial al momento de impulsar la cultura tributaria en los ciudadanos y repercutir negativamente en la obtención de los ingresos, por cuanto, para ello, la administración tributaria local debe estar blindada además de adelantar procesos divulgativos por parte de profesionales que tengan las competencias necesarias para servir de fundamento en la constitución de una cultura en la que ciudadanos y funcionarios estén consientes sobre los derechos y deberes tributarios que han adquirido con el Estado y la sociedad en general. Una adecuada cultura tributaria debe ser concebida como un sistema cuyos elementos fundantes son la base normativa, la formación de sus ciudadanos y, sobre todo, las competencias de sus funcionarios tributarios.
APA, Harvard, Vancouver, ISO, and other styles
7

ROBERTO SIQUEIRA LAMEGO, CAIO. "O TEMA CÂNCER NOS LIVROS DIDÁTICOS DE CIÊNCIAS: REFLEXÕES À LUZ DA EDUCAÇÃO EM SAÚDE." In Itinerários de resistência: pluralidade e laicidade no Ensino de Ciências e Biologia. Editora Realize, 2021. http://dx.doi.org/10.46943/viii.enebio.2021.01.407.

Full text
Abstract:
O PRESENTE TRABALHO TEM POR OBJETIVO INVESTIGAR COMO O TEMA CÂNCER É ABORDADO NOS LIVROS DIDÁTICOS DE CIÊNCIAS UTILIZADOS NO SEGUNDO SEGMENTO DO ENSINO FUNDAMENTAL. A PESQUISA TEVE COMO PRINCÍPIO NORTEADOR A ABORDAGEM QUALITATIVA ARTICULADA, QUANDO NECESSÁRIO, COM A QUANTIFICAÇÃO DOS DADOS. O INSTRUMENTO DE CONSTRUÇÃO DE DADOS FOI A PESQUISA BIBLIOGRÁFICA, SENDO A TÉCNICA DE ANÁLISE DE CONTEÚDO UTILIZADA PARA A ELABORAÇÃO DAS CATEGORIAS DE ANÁLISE. DE ACORDO COM AS ANÁLISES, OS TIPOS DE CÂNCER MAIS CITADOS FORAM: PULMÃO, PELE, ÚTERO E FÍGADO. É RELEVANTE PESQUISAS VOLTADAS PARA ESTE TEMA A FIM DE CONTRIBUIR COM O ENSINO E APRENDIZAGEM SOBRE O CÂNCER DE FORMA EFETIVA.
APA, Harvard, Vancouver, ISO, and other styles
8

"Análisis de datos categóricos." In Estadística para ciencias sociales, 253–72. Universidad del Externado, 2017. http://dx.doi.org/10.2307/j.ctv18msqdq.11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

"Datos económicos seleccionados." In Análisis de los resultados medioambientales, 170–72. OECD, 2014. http://dx.doi.org/10.1787/9789264189188-10-es.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

"Datos sociales seleccionados." In Análisis de los resultados medioambientales, 173. OECD, 2014. http://dx.doi.org/10.1787/9789264189188-11-es.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Análisis de datos: técnicas"

1

Romero, Irene, Carolina Alonso, Víctor A. Villagrá, Luis Vázquez, and Pilar Holgado. "Aplicación de técnicas de detección de anomalías a escenarios de ciudades inteligentes." In XIII Jornadas de Ingenieria Telematica - JITEL2017. Valencia: Universitat Politècnica València, 2017. http://dx.doi.org/10.4995/jitel2017.2017.6574.

Full text
Abstract:
Una de las grandes preocupaciones en la actualidad de las empresas es la detección y prevención temprana de ataques de ciberseguridad. Para ello, existen los Sistemas de Detección de Intrusiones, herramientas que cuentan con sensores virtuales y que basan su detección en el análisis del tráfico de red. El problema surge cuando se dan ataques que estos sistemas no detectan. Una de las soluciones existentes a esta problemática es acudir a la minería de datos e intentar detectar anomalías en grandes volúmenes de datos, no pertenecientes únicamente al tráfico de red sino datos que puedan provenir de diversas fuentes. En este artículo se propone una solución enmarcada en el proyecto DHARMA haciendo uso de la técnica de agrupamiento, dentro de la disciplina de la minería de datos, en concreto del algoritmo DBSCAN.
APA, Harvard, Vancouver, ISO, and other styles
2

Esquivel-Hernández, Germain. "Análisis de vapor de agua precipitable sobre Costa Rica: una comparación entre diferentes técnicas de análisis basadas en GPS, sondeo atmosférico y productos satelitales MODIS." In I Congreso Internacional de Ciencias Exactas y Naturales. Universidad Nacional, 2019. http://dx.doi.org/10.15359/cicen.1.41.

Full text
Abstract:
La cuantificación del vapor de agua en regiones tropicales como América Central es necesaria para estimar la influencia del cambio climático en su distribución y la formación de precipitaciones. Este trabajo analiza las estimaciones diarias de vapor de agua precipitable (PWV) utilizando los datos de retardo zenital del Sistema de Posicionamiento Global (GPS) en la región del Pacífico de Costa Rica durante 2017. Las mediciones del PWV con GPS se compararon contra los datos del sondeo atmosférico y del espectrómetro de imágenes de resolución moderada (MODIS). Se encontraron sesgos relativamente pequeños entre las temperaturas atmosféricas medias (Tm) del sondeo atmosférico y la ecuación de Bevis. Las variaciones estacionales de PWV fueron controladas por dos de los principales procesos de circulación en América Central: los vientos alisios del noreste y la migración latitudinal de la Zona de Convergencia Intertropical (ZCIT). No se encontraron diferencias estadísticas significativas para los cálculos de MODIS Terra durante la estación seca con respecto a los cálculos basados ​​en GPS (p> 0.05). Un modelo de regresión lineal múltiple estimado con base en variables meteorológicas de superficie pudo predecir las mediciones basadas en GPS con un sesgo relativo promedio de -0.02 ± 0.19 mm/día (R2=0.597). Estos primeros resultados son prometedores para incorporar aplicaciones meteorológicas basadas en GPS en América Central, donde las condiciones climáticas prevalecientes ofrecen un escenario único para estudiar la influencia de los aportes de humedad marítimos en la distribución estacional de vapor de agua.
APA, Harvard, Vancouver, ISO, and other styles
3

Batista, Saneth, and Aranzazu Berbey-Alvarez. "ANÁLISIS Y REGRESIÓN DE ESTADÍSTICAS DE TURISMO EN PANAMÁ." In V Congreso de Investigación Desarrollo en Innovación de la Universidad Internacional de Ciencia y Tecnología. Universidad Internacional de Ciencia y Tecnología, 2021. http://dx.doi.org/10.47300/978-9962-5599-8-6-07.

Full text
Abstract:
En este artículo se presentan datos estadísticos sobre el flujo de visitantes e ingresos turísticos de enero a diciembre de 2019, estos de acuerdo con distintos puntos de entrada y se comparan con los datos obtenidos de la Autoridad de Turismo de Panamá (ATP) para 2017 y 2018. Estos resultados se analizaron con ayuda de la técnica estadística de regresión lineal.
APA, Harvard, Vancouver, ISO, and other styles
4

Ortigosa, Nuria, and Joaquín Cerdá Boluda. "Primera experiencia y presentación de labores investigadoras referentes a análisis de imágenes médicas para alumnos de enseñanzas medias." In INNODOCT 2018. València: Editorial Universitat Politècnica de València, 2018. http://dx.doi.org/10.4995/inn2018.2018.8792.

Full text
Abstract:
Los Campus Científicos de Verano tienen como objetivo que los alumnos de enseñanzas medias de las opciones científico-técnicas tengan un primer contacto con la labor investigadora que se realiza en las universidades y centros de investigación. Para ello, los estudiantes participan en proyectos de una semana de duración organizados en diferentes sesiones, como la presentada en este trabajo. Enmarcado en el proyecto “Tecnología y física médicas: la innovación al servicio de la medicina”, cuyo objetivo es fomentar el interés de los alumnos en las aplicaciones tecnológicas de la ingeniería biomédica, presentamos un seminario sobre técnicas de análisis de imágenes biomédicas mediante la utilización del software Mathematica. Realizada en la Universitat Politècnica de València, a los estudiantes se les muestran diferentes técnicas básicas de análisis para, por ejemplo, ser capaces de ubicar el punto de emisión de radiactividad mediante el empleo de histogramas o diferentes técnicas de eliminación de ruido en imágenes procedentes de sistemas para diagnóstico médico. Todo ello se realiza representando los datos de un modo muy visual y adaptando los problemas a resolver a las necesidades del alumnado, motivándolo a través de actividades prácticas tras la presentación de los contenidos teóricos.
APA, Harvard, Vancouver, ISO, and other styles
5

Camacho Torregrosa, Francisco Javier, Javier Marín Morales, David Llopis Castelló, Ana María Pérez Zuriaga, and Alfredo García García. "Análisis y Validación de la Consistencia en un Simulador de Conducción." In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.1902.

Full text
Abstract:
Muy diversas investigaciones previas han mostrado cómo la percepción del riesgo afecta el comportamiento de los conductores. Muchas de ellas van dirigidas a observar la diferencia de percepción entre conductores experimentados y noveles, o entre el riesgo objetivo y el percibido. Mientras que el riesgo objetivo puede ser obtenido a partir de las estadísticas de siniestralidad, el riesgo percibido es más complicado de evaluar. Existen diversos métodos, yendo desde la encuesta directa hasta técnicas de rastreo de la visión.En este estudio se presenta una nueva metodología para recoger datos de Percepción Subjetiva de Riesgo (PSR) de forma quasi-naturalística. Con esta metodología, los conductores pueden indicar de forma sencilla su percepción de confort tras recorrer cada una de las curvas que compone un trazado. Posteriormente, la correlación de estos datos con la geometría de las curvas y otras variables permite derivar sencillas reglas para obtener un diseño consistente de la carretera. Igualmente, si esta metodología es válida para ser llevada a cabo en un entorno simulado, permitiría evaluar carreteras en fase de proyecto, convirtiéndose en una valiosa herramienta para los ingenieros.Un total de 28 conductores participaron en la toma de datos, recorriendo el mismo tramo de carretera en la realidad y en entorno simulado, de 32 km. En ambos casos indicaron su percepción de PSR tras cada una de las curvas aisladas. En este estudio se muestran los resultados alcanzados, tanto en el entorno real como el simulado. Igualmente, se establecen conexiones y correlaciones entre ambos métodos, mostrando bajo qué condiciones el entorno simulado arroja valores válidos.DOI: http://dx.doi.org/10.4995/CIT2016.2016.1902
APA, Harvard, Vancouver, ISO, and other styles
6

Arenas Ramírez, Blanca, José M. Mira Mc Williams, Camino González Fernández, Arturo Furones Crespo, Javier Páez Ayuso, and Francisco Aparicio Izquierdo. "METODOLOGÍA PARA LA ESTIMACIÓN DE LA MOVILIDAD DE VEHÍCULOS DEL PARQUE ESPAÑOL. ESTUDIO PILOTO: AUTOBUSES ARTICULADOS." In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.1990.

Full text
Abstract:
España ha intensificado la aplicación de políticas encaminadas a la reducción del número de accidentes y de víctimas, durante la última década, y ha alcanzado un elevado nivel de éxito en esta tarea, situando a nuestro país en un puesto muy destacado entre los países de Europa y del mundo en relación a la seguridad vial. En el año 2013, España ocupó el quinto puesto en el grupo de países de la UE-28 en el indicador muertos por millón de habitante. Un indicador análogo con datos de exposición no existe a nivel europeo, en tanto el denominador (la exposición) es una magnitud de difícil obtención. El logro de nuevas metas exige medidas específicas dirigidas a ámbitos y colectivos con características diferentes, y para ello es necesario un mejor conocimiento de los verdaderos niveles de riesgo de determinados grupos de usuarios, definidos por criterios de género, o edad, o de tipos de vehículos y características constructivas, prestaciones o eficacia de sistemas de seguridad, entre otros factores. En el caso de los vehículos, existen datos de distancias recorridas en diferentes periodos, recogidos en las fichas de inspección técnica, e incorporados, desde hace unos años, en bases de datos gestionadas por las comunidades autónomas y por la DGT, pero estos datos están siendo escasamente explotados.En el presente trabajo se presenta una metodología de análisis de los datos obtenidos en las inspecciones técnicas de los vehículos, y de estimación de la exposición (veh-km anual) de diferentes grupos de vehículos (según tipo, edad y potencia, entre otras variables determinantes) que pueden presentar diferencias significativas en sus niveles de exposición. La metodología, que incluye la creación de bases limpias y la formación de conglomerados de vehículos con elevada homogeneidad en el valor de su movilidad, se ha aplicado a una muestra de autobuses articulados a modo de estudio piloto. Con este trabajo se pretende contribuir a un mejor conocimiento de los verdaderos niveles de riesgo de diferentes grupos de vehículos del parque español.DOI: http://dx.doi.org/10.4995/CIT2016.2016.1990
APA, Harvard, Vancouver, ISO, and other styles
7

Velázquez-Martí, Borja, and Juan José Pérez-Arévalo. "Evaluación Bidireccional del Proceso Enseñanza-Aprendizaje Universitario Aplicando Análisis de Componentes Principales." In In-Red 2016 - Congreso de Innovación Educativa y Docencia en Red de la Universitat Politècnica de València. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/inred2016.2016.4283.

Full text
Abstract:
En la mayoría de las universidades la evaluación del sistema de enseñanza se basa en el análisis de la apreciación exclusiva de los alumnos, los cuales son sometidos a unas encuestas, donde se les pregunta sobre su percepción en distintos aspectos como la organización, metodología, motivación que suscita el profesor y el sistema de evaluación. Sin embargo, pueden haber discrepancias entre la percepción de los profesores y estudiantes que a veces no son consideradas en los procesos de evaluación del sistema. Este trabajo propone la hipótesis de que el proceso de enseñanza-aprendizaje se desarrolla positivamente en cuanto es bien valorado simultáneamente por ambos colectivos. Se demuestra la aplicabilidad del Análisis de Componentes Principales como técnica de evaluación de la apreciación de las técnicas educativas a partir de los valores dados a las respuestas de una serie de encuestas a docentes y estudiantes, y permite identificar la necesidad de medidas correctivas.
APA, Harvard, Vancouver, ISO, and other styles
8

Lijarcio Cárcel, José Ignacio, Ana Martí-Belda Bertolín, Patricia Boso Segui, and Consuelo López Osma. "Contribución de las aplicaciones móviles a la Seguridad vial. Drive Smart como ejemplo de aplicación." In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.3472.

Full text
Abstract:
En los últimos años han proliferado las aplicaciones móviles que contribuyen, en diferentes aspectos, a mejorar la movilidad. En este contexto, se ha desarrollado la aplicación móvil Drive Smart, con el objetivo de analizar y mejorar el comportamiento del usuario al volante. A través de la utilización de dicha aplicación se obtiene un conjunto de datos que se transforman en un paquete de incidencias en la conducción, siendo éstas: velocidad, aceleración, frenada, paso por curva y anticipación al tráfico. Drive Smart analiza los eventos de tráfico registrados en el contexto en el que han ocurrido y como parte de una maniobra, más allá de la individualidad de un evento. Además, tiene la capacidad de asistir al conductor, dándole un informe posterior a su conducción que le sirva de autoformación y con consejos prácticos orientados a mejorar la conducta en temas particulares, mediante mensajes específicos de distintas tipologías (jurídico, eficiencia y sensibilizador). A través de este proyecto, se pretende demostrar la viabilidad y utilidad de los modernos mecanismos telemáticos en combinación con el estudio psicosociológico y las diversas técnicas de análisis estadístico de datos basados en Machine Learning. Los datos obtenidos de la aplicación móvil junto con datos sociodemográficos permiten obtener las principales variables de movilidad, además, pueden utilizarse para definir la base algorítmica en futuros estudios con mayor calado, teniendo una matriz estadística preliminar que permita generar procesos paralelos en el futuro.DOI: http://dx.doi.org/10.4995/CIT2016.2016.3472
APA, Harvard, Vancouver, ISO, and other styles
9

Ulpiano Cogollos, José Luis, Francisco Javier Camacho-Torregrosa, and Alfredo García García. "ANÁLISIS DEL COMPORTAMIENTO DE CONDUCTORES EN CURVAS DE BAJO ÁNGULO DE DEFLEXIÓN." In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.4118.

Full text
Abstract:
Las curvas con un bajo ángulo de deflexión pueden ser un problema para la percepción por parte de los conductores. Para evitar este aspecto, las diferentes normativas establecen criterios de desarrollo o radios mínimos, que las haga apreciables por los conductores. Los criterios que están incorporados en las normativas españolas nunca tuvieron una base experimental científica sino fueron fruto de juicios técnicos. Los objetivos de esta investigación son analizar la percepción subjetiva y caracterizar la respuesta de los usuarios de carreteras convencionales ante curvas de bajo ángulo de deflexión, para conseguir unas recomendaciones de diseño para este tipo de curvas. Estas curvas se restituyen geométricamente con el objetivo de identificar cuál servirá para un posterior estudio más detallado in situ. Para ello se presenta el diseño y desarrollo de un cuestionario online, el cual incorpora una base de datos de curvas de bajo ángulo de deflexión presentes en carreteras convencionales españolas. El cuestionario consiste en mostrar a un amplio número de conductores una serie de vídeos aleatorios donde se visualiza, desde el punto de vista del usuario de la carretera, el recorrido de varias de las curvas. Tras este paso, los encuestados deben expresar su percepción y comportamiento a través de varias preguntas de tipo abierto y cerrado. Estos resultados quedan registrados en una base de datos, para su posterior filtrado, tratamiento e interpretación estadística.DOI: http://dx.doi.org/10.4995/CIT2016.2016.4118
APA, Harvard, Vancouver, ISO, and other styles
10

Page, Alvaro, Noelia López, William Ricardo Venegas, and Pilar Serra. "Comparación de la normalización lineal de la escala de tiempos con el registro funcional continuo en movimientos cíclicos del cuello." In 11 Simposio CEA de Bioingeniería. València: Editorial Universitat Politècnica de València, 2019. http://dx.doi.org/10.4995/ceabioing.2019.10027.

Full text
Abstract:
La normalización de la escala de tiempos es un paso necesario para aplicar las técnicas de análisis de datos funcionales al estudio de los movimientos humanos. La técnica estándar es la normalización lineal que, a pesar de su sencillez, puede ser ineficaz para reducir la variabilidad en la duración de los eventos [1]. Una alternativa es el registro continuo que supone ajustar de forma no lineal la escala de tiempos [2]. En este caso, la información temporal se mantiene en las funciones warping, que relacionan el tiempo modificado frente al promedio. No obstante, este procedimiento es complejo y computacionalmente costoso. Además, se ha señalado que en movimientos cíclicos como el de masticación apenas hay diferencias entre métodos [3]. En este trabajo se comparan ambos métodos en el caso del movimiento cíclico de flexo-extensión del cuello, analizando las funciones ángulo y velocidad angular. A partir de una base de datos con 437 ciclos completos extensión-flexión de cuello, se han aplicado ambos tipos de normalización de la escala temporal. Se han analizado las diferencias en las curvas medias y las desviaciones típicas funcionales, cuyos valores medios e intervalos de confianza se han establecido mediante un proceso de bootstrapping. Los resultados muestran que apenas hay diferencias en las curvas medias obtenidas por ambos procedimientos, aunque sí en las desviaciones típicas funcionales, que son algo menores en el caso del registro no lineal. Por otra parte, los resultados obtenidos con el registro no lineal son diferentes cuando se usan las curvas de posición o las de velocidad como referencia para el reescalado. Estos resultados sugieren que el registro no lineal, aunque puede ser útil para el análisis de señales no periódicas o donde no haya que analizar a la vez funciones y sus derivadas, no ofrece ventajas importantes frente a la normalización lineal en el caso de los movimientos cíclicos. REFERENCIAS [1] Page, A., & Epifanio, I. (2007). A simple model to analyze the effectiveness of linear time normalization to reduce variability in human movement analysis. Gait & posture, 25(1), 153-156. [2] Page, A., et al. (2006). Normalizing temporal patterns to analyze sit-to-stand movements by using registration of functional data. Journal of biomechanics, 39(13), 2526-2534. [3] Crane, E. et al.. (2010). Effect of registration on cyclical kinematic data. Journal of biomechanics, 43(12), 2444-2447.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Análisis de datos: técnicas"

1

Di Capua, Laura, Virginia Queijo, and Graciana Rucci. Demanda de trabajo en Uruguay: Un análisis de vacantes on line. Inter-American Development Bank, July 2020. http://dx.doi.org/10.18235/0002511.

Full text
Abstract:
La aparición del COVID-19 va a acelerar un fenómeno que ya estaba presente en la región, y que tiene que ver con una reconfiguración a nivel global del sistema productivo, de las formas de trabajar, de los roles, tareas y ocupaciones, y del modo en que las personas interactúan entre sí en diversos ámbitos. Así, resulta de vital importancia contar con información granular y oportuna de cuáles son los requerimientos del sector productivo en cuanto a la fuerza de trabajo. No obstante, a nivel regional es sumamente escasa la información de la que se dispone acerca de la demanda laboral. La proliferación reciente de portales de empleo on line ofrecen una fuente alternativa de información relativamente abundante, de frecuente actualización, fácil acceso y bajo costo de generación, que puede informar sobre tendencias recientes en el mercado de trabajo. Los datos que se emplean en la presente investigación se generaron a partir de la consolidación de información sobre vacantes publicadas entre septiembre de 2018 y septiembre de 2019 en tres portales de empleo de relevancia en Uruguay. El análisis a partir de las vacantes on line sugiere que Uruguay enfrenta retos en cuanto a la formación y capacitación de sus recursos humanos. Los datos muestran la importancia de la culminación del ciclo de educación media como requisito para participar de las oportunidades que se presentan en el mercado laboral. También existiría espacio para darle mayor impulso a la educación técnico-profesional. Además, el estudio muestra que, a la hora de contratar personal, los empleadores valoran mucho que éstos cuenten con alguna experiencia laboral previa, lo cual es un dato relevante a la hora de diseñar programas y políticas de formación y capacitación laboral.
APA, Harvard, Vancouver, ISO, and other styles
2

Feixa, Carles, José Sánchez García, Roger Soler-i-Martí, Eduard Ballesté Isern, Nele Hansen, and Adam Brisley. Manual metodológico: etnografía y análisis de datos. Universitat Pompeu Fabra, 2020. http://dx.doi.org/10.31009/transgang.2020.wp04.2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Bonilla León, Lilian, Danilo Bonilla Trujillo, and Ramón Guillermo Gómez Domínguez. Producción de embriones bovinos del laboratorio INVITRO COLOMBIA durante el año 2019. Universidad Nacional Abierta y a Distancia, June 2021. http://dx.doi.org/10.22490/ecapma.4242.

Full text
Abstract:
Contextualización: La fecundación in vitro surgió hace 40 años, es una de las biotecnologías reproductivas que actualmente se están aplicando en el país, produciendo embriones comercialmente a gran escala en bovinos, la cual aumenta el aprovechamiento del potencial genético de la hembra. Vacío del conocimiento: Colombia no presenta constantemente datos de producción ya que los laboratorios comerciales no publican sus resultados, evitando un posicionamiento del país en el mapa mundial de la biotecnología reproductiva aplicada a la producción comercial. Propósito del estudio: La intención de este estudio es realizar un acercamiento a la producción promedio de un laboratorio dedicado a la producción de embriones in vitro en bovinos (PEIV) en Colombia. Metodología: Se evaluó la producción de embriones del laboratorio INVITRO COLOMBIA SAS, del año 2019, en cuanto a la PEIV, teniendo en cuenta técnicas como la Aspiración folicular (OPU), la cual se puede realizar por la presencia de ondas foliculares del ciclo estral del bovino las cuales permiten que la colección de oocitos durante toda su vida productiva, Maduración in vitro (MIV), Fecundación in vitro (FIV) y Cultivo in vitro (CIV), 8 días después de la aspiración folicular son entregados los embriones producidos. Se evaluaron variables correspondientes a producción y preferencia racial y zootécnica en la aplicabilidad de la técnica por parte del productor. Para el análisis se utilizó estadística descriptiva por medio de la obtención de promedios. Resultados y conclusiones: La producción de oocitos por donante es de 24 por sesión, la producción de embriones promedio fue de 4. La obtención de oocitos viables corresponde al 83.7%, la división de zigotos fue de 66.5% y la producción de embriones a partir de los oocitos viables fue de 19.3%. En cuanto a la vocación zootécnica de los animales sometidos a la técnica en un 76.4% corresponde a ganadería de leche y un 23.6% a ganadería de carne. La raza en la que se utiliza más la técnica es la raza Gyr, especialmente para cruces con razas europeas para la producción de F1 adaptados para ganadería de leche en el trópico, así como la Guzerat y la Brahman.
APA, Harvard, Vancouver, ISO, and other styles
4

Clark, Ximena, Danielle Zaror, and José Antonio Mejía-Guerra. Marcos legales estadísticos en América Latina: Realidades, mejores prácticas y recomendaciones. Inter-American Development Bank, December 2020. http://dx.doi.org/10.18235/0002938.

Full text
Abstract:
Este trabajo hace un análisis comparativo de los marcos legales que rigen las Oficinas Nacionales de Estadística (ONEs) de 18 países de América Latina, contrastándolos con las recomendaciones internacionales existentes. Concluye que los marcos son en muchos casos obsoletos, debilitando la institucionalidad y el nivel técnico de las oficinas e impidiendo su habilidad para comunicar sus productos. En casi todos los países, el marco no reúne por lo menos una de las condiciones necesarias para facilitar la producción, el intercambio y la difusión de información, la transparencia, la confidencialidad y protección de datos, o contener las presiones externas que busquen influir en la información producida por la ONE. Un marco legal obsoleto puede ser el canal de conducción de políticas de debilitamiento institucional. No hay leyes perfectas y la legislación requiere ser actualizada para ajustarse a los tiempos, pero está claro que la estabilidad institucional de una ONE no puede estar sujeta a usos y costumbres, sino que debe estar propiamente legislada. El documento identifica áreas de oportunidad y mejores prácticas, y ofrece propuestas concretas en la forma de una ley modelo alineada con las recomendaciones internacionales. La investigación también explora la interacción de la legislación estadística con las legislaciones de acceso a la información pública y de protección de datos personales.
APA, Harvard, Vancouver, ISO, and other styles
5

Iregui-Bohórquez, Ana María, Luis Fernando Melo-Velandia, and María Teresa Ramírez-Giraldo. Productividad regional y sectorial en Colombia: análisis utilizando datos de panel. Bogotá, Colombia: Banco de la República, February 2006. http://dx.doi.org/10.32468/be.378.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Cárcamo-Ulloa, L., D. Calva Rosales, and N. Ronquillo Rodríguez. México, en la prensa chilena: análisis basado en minería de datos textuales en Twitter. Revista Latina de Comunicación Social, July 2017. http://dx.doi.org/10.4185/rlcs-2017-1199.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Carrillo Bravo, Jeremy Antonio, María José Dominguez-Cuesta, and José Cuevas-Mons. Aplicación de Técnicas SIG y A-DinSAR al análisis de movimientos del terreno en Guayaquil (Ecuador). Ilustre Colegio Oficial de Geólogos, April 2021. http://dx.doi.org/10.21028/jacb.2021.04.26.

Full text
Abstract:
En este trabajo se ha realizado el análisis y cuantificación de las características del terreno del área metropolitana de la ciudad de Guayaquil y las aledañas de Samborondón y Durán (provincia del Guayas, Ecuador), aplicando una metodología basada en técnicas A-DinSAR y SIG. Para ello, se han utilizado imágenes del satélite Envisat ASAR correspondientes al período 2003-2005 que han permitido obtener una serie de puntos con velocidades de desplazamiento en la dirección de la línea de vista del satélite (LOS), expresada en mm/año. Se han diferenciado tres áreas: 2 de ellas áreas urbanas, situadas sobre depósitos aluviales con relieve suave y pendientes inferiores a 12º con velocidades medias de desplazamiento que pueden llegar a -20,7 – -10,0 /-10,0 – -5,0 mm/año, afectadas por inundaciones periódicas por el desbordamiento del Río Guayas; la tercera es un área urbana sobre una de las laderas de la Cordillera Chongón Colonche, donde se observa un antiguo deslizamiento con velocidades medias de desplazamiento entre -2,0 – 2,0/2,0 – 5,0 mm/año, afectando a depósitos coluviales. Las velocidades medias obtenidas se han relacionado con factores litológicos, orográficos y de inundabilidad, identificando deformaciones compatibles con determinados riesgos geológicos, como subsidencia urbana y deslizamientos.
APA, Harvard, Vancouver, ISO, and other styles
8

Giedion, Úrsula, Ana Lucía Muñoz, and Oscar Cañón. Serie de notas técnicas sobre procesos de priorización en salud: Nota 3: Análisis comparativo y lecciones aprendidas. Inter-American Development Bank, August 2015. http://dx.doi.org/10.18235/0000127.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Seminario, Bruno, Maria Alejandra Zegarra, and Luis Palomino. Datos del PIB departamental y análisis de la desigualdad regional en el Perú (1795-2017). Inter-American Development Bank, March 2020. http://dx.doi.org/10.18235/0002245.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ramírez Rufino, Smeldy, César Said Rosales Torres, César Buenadicha, and Gemma Galdón. COVID-19 y el uso responsable de datos: Análisis de iniciativas apoyadas por BID Lab. Inter-American Development Bank, November 2020. http://dx.doi.org/10.18235/0002858.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography