Literatura científica selecionada sobre o tema "Clasificación automática"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Clasificación automática".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Clasificación automática"

1

Suárez Londoño, Arnol Sneider, Andrés Fernando Jiménez López, Mauricio Castro Franco e Angel Alfonso Cruz Roa. "Clasificación y mapeo automático de coberturas del suelo en imágenes satelitales utilizando Redes Neuronales Convolucionales". Orinoquia 21, n.º 1 Sup (16 de julho de 2017): 64–75. http://dx.doi.org/10.22579/20112629.432.

Texto completo da fonte
Resumo:
La clasificación de cobertura del suelo es importante para estudios de cambio climático y monitoreo de servicios ecosistémicos. Los métodos convencionales de clasificación de coberturas se realizan mediante la interpretación visual de imágenes satelitales, lo cual es costoso, dispendioso e impreciso. Implementar métodos computacionales permite generar clasificación de coberturas en imágenes satelitales de manera automática, rápida, precisa y económica. Particularmente, los métodos de aprendizaje automático son técnicas computacionales promisorias para la estimación de cambios de cobertura del suelo. En este trabajo se presenta un método de aprendizaje automático basado en redes neuronales convolucionales de arquitectura tipo ConvNet para la clasificación automática de coberturas del suelo a partir de imágenes Landsat 5 TM. La ConvNet fue entrenada a partir de las anotaciones manuales por medio de interpretación visual sobre las imágenes satelitales con las que los expertos generaron el mapa de cobertura del parque nacional el Tuparro, de los Parques Nacionales Naturales de Colombia. El modelo de validación se realizó con datos de los mapas de coberturas del Amazonas colombiano realizado por el Sistema de Información Ambiental de Colombia. Los resultados obtenidos de la diagonal de la matriz de confusión de la exactitud promedio fue de 83.27% en entrenamiento y 91.02% en validación; para la clasificación en parches entre Bosques, áreas con vegetación herbácea y/o arbustiva, áreas abiertas sin o con poca vegetación y aguas continentales.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Piza Volio, Eduardo, Álex Murillo Fernández e Javier Trejos Zelaya. "Nuevas técnicas de particionamiento en clasificación automática". Revista de Matemática: Teoría y Aplicaciones 6, n.º 1 (18 de fevereiro de 2009): 51. http://dx.doi.org/10.15517/rmta.v6i1.168.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Ordoñez Erazo, Hugo, Daniel Andres Leon Vargas e Víctor Andrés Bucheli Guerrero. "Tagq TagEQ-CN: Clasificación de Eventos Sísmicos Basado en Redes Complejas". Investigación e Innovación en Ingenierías 9, n.º 1 (7 de maio de 2021): 136–48. http://dx.doi.org/10.17081/invinno.9.1.4856.

Texto completo da fonte
Resumo:
Objetivo: En el área de la sismología constantemente se presentan desarrollos tanto en el procesamiento de señales como en la detección y clasificación de señales sísmicas. En este sentido, la detección y clasificación de señales sísmicas continúa siendo un tema de investigación, dada la diversidad de tipos de señales, sensores y fuentes de vibración. Este trabajo se presenta una propuesta novedosa, al tratar el conjunto de eventos sísmicos como una red de eventos conectados entre sí, para la clasificación automática de eventos. Metodología: Para el proceso de clasificación de eventos utiliza información sobre nodos o lugares que aglomeran eventos sísmicos, así como también comunidades de eventos. De esta forma, TagEQ, es un sistema de etiquetado semi-automático de señales sísmicas, que toma sismogramas continuos de una estación y, a partir de un catálogo de eventos sísmicos y una representación de los eventos como red, clasifica automáticamente las señales. Resultados: El sistema se testeó con señales provenientes de la estación La Rusia que pertenece a la Red Sismológica Nacional de Colombia, con resultados prometedores. La aplicabilidad de este sistema, permite incluir información nueva para la anotación automática de sismos, así como también reconocer automáticamente eventos de otras fuentes. Conclusiones: El sistema desarrollado se basa en el paradigma supervisado, aunque buena parte del sistema funciona de manera automática en el sentido de que el usuario no escoge directamente cuál es el conjunto de señales que se utilizan para el entrenamiento y prueba del clasificador. Dado el nivel de abstracción que el clasificador alcanzó, es posible que pueda usarse también con otro tipo de señales, como señales de deslizamientos, explosiones, o movimiento de fluidos. Sin embargo, para poder usar esta técnica se debe crear un catálogo de tiempos de eventos y algún tipo de identificación de la señal.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Cárdenas, Juan, Gastón Olivares e Rodrigo Alfaro. "Clasificación automática de textos usando redes de palabras". Revista signos 47, n.º 86 (dezembro de 2014): 346–64. http://dx.doi.org/10.4067/s0718-09342014000300001.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Jiménez Moreno, Robinson, Javier Eduardo Martínez Baquero e Luis Alfredo Rodríguez Umaña. "Sistema automático de clasificación de peces". Visión electrónica 12, n.º 2 (12 de dezembro de 2018): 258–64. http://dx.doi.org/10.14483/22484728.14265.

Texto completo da fonte
Resumo:
el presente artículo expone el diseño de una arquitectura de red para reconocimiento de patrones orientada a la clasificación automática de dos tipos de peces: mojarra y tilapia. Se emplea una arquitectura basada en aprendizaje profundo mediante una red neuronal convolucional (RNC) para la cual se determina la base de datos a emplear y los diferentes hiperparámetros que la componen. Se logra obtener, mediante análisis por matriz de confusión, un desempeño del 100% de la red bajo las condiciones controladas el sistema de clasificación, es decir: color de banda transportadora uniforme y uso de luz día.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Wilches-Cortina, Juan Ricardo, Jairo Alberto Cardona-Peña e Juan Pablo Tello-Portillo. "A VoIP call classifier for carrier grade based on Support Vector Machines". DYNA 84, n.º 202 (1 de julho de 2017): 75–83. http://dx.doi.org/10.15446/dyna.v84n202.60975.

Texto completo da fonte
Resumo:
Actualmente, los técnicos de compañías de VoIP realizan pruebas y clasifican las llamadas como buenas o malas. Asimismo, existen plataformas automáticas que realizan llamadas VoIP para clasificarlas, sin realizar procesamiento de audio; proceso necesario cuando se pretende detectar el False Answer Supervision (FAS), una característica común e indeseable de las llamadas VoIP. Se implementó una Máquina de Vectores de Soporte (SVM) junto con varias funciones utilizadas en el reconocimiento de voz para emular la toma de decisiones de los humanos (tarea de clasificación y análisis de audio realizada por los técnicos). Los experimentos se basaron en la comparación entre los resultados obtenidos de los métodos de clasificación actuales y los derivados de la SVM. Se utilizó una validación cruzada de diez veces para evaluar el rendimiento del sistema. Derivado de los resultados, la metodología propuesta muestra un mejor porcentaje de clasificación exitosa comparado con una plataforma automática llamada CheckMyRoutes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Mejia F, Marcela, Marco Alzate e Javier Rodríguez V. "Clasificación automática de glóbulos rojos en frotis de sangre periférica". Revista de la Universidad Industrial de Santander. Salud 48, n.º 3 (1 de julho de 2016): 311–19. http://dx.doi.org/10.18273/revsal.v48n3-2016005.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Baez, José A., Orlando Ramos, María J. Somodevilla, Ivo H. Pineda, Darnes Vilariño e Concepción Pérez de Celis. "Una propuesta de clasificación automática de polaridad para notas periodísticas". Research in Computing Science 125, n.º 1 (31 de dezembro de 2016): 145–56. http://dx.doi.org/10.13053/rcs-125-1-13.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Hernández-Pajares, Beatriz, Diana Pérez-Marín e Vanessa Frías-Martínez. "Clasificación multiclase y visualización de quejas de organismos oficiales en twitter". TecnoLógicas 23, n.º 47 (30 de janeiro de 2020): 109–20. http://dx.doi.org/10.22430/22565337.1454.

Texto completo da fonte
Resumo:
Las redes sociales acumulan gran cantidad de información. Las actuales técnicas de Procesamiento de Lenguaje Natural permiten su procesamiento automático y las técnicas de Minería de Datos permiten extraer datos útiles a partir de la información recopilada y procesada. Sin embargo, de la revisión del estado del arte, se observa que la mayoría de los métodos de clasificación de los datos identificados y extraídos de redes sociales son biclase. Esto no es suficiente para algunas áreas de clasificación, en las que hay más de dos clases a considerar. En este artículo, se aporta un estudio comparativo de los métodos svm y Random Forests, para la identificación automática de n-clases en microblogging de redes sociales. Los datos recopilados automáticamente para el estudio están conformados por 190 000 tweets de cuatro organismos oficiales: Metro, Protección Civil, Policía, y Gobierno de México. De los resultados obtenidos, se recomienda el uso de Random Forests, ya que se consigue una precisión media del 81.46 % y una cobertura media del 59.88 %, con nueve tipos de quejas identificadas automáticamente.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Botina-Monsalve, Deivid J., María A. Domínguez-Vásquez, Carlos A. Madrigal-González e Andrés E. Castro-Ospina. "Clasificación automática de las vocales en el lenguaje de señas colombiano". TecnoLógicas 21, n.º 41 (15 de janeiro de 2018): 103–14. http://dx.doi.org/10.22430/22565337.730.

Texto completo da fonte
Resumo:
El reconocimiento del lenguaje de señas es un problema de alta complejidad, debido a la cantidad de gestos estáticos y dinámicos necesarios para representar dicho lenguaje, teniendo en cuenta que el mismo variará para cada país en particular. Este artículo se enfoca en el reconocimiento de las vocales del lenguaje colombiano de señas, de forma estática. Se adquirieron 151 imágenes por cada clase, teniendo en cuenta también una clase no vocal adicional con diferentes escenas. A partir de cada imagen capturada se separa el objeto de interés del resto de la escena usando información de color; luego, se extraen características para describir el gesto correspondiente a cada vocal o a la clase que no corresponde a ninguna vocal. Posteriormente, se seleccionan cuatro conjuntos de características. El primero con la totalidad de ellas; a partir de este salen tres nuevos conjuntos: el segundo extrayendo un subconjunto de características mediante el algoritmo de Análisis de Componentes Principales (PCA). El tercer conjunto, aplicando Selección Secuencial hacia Adelante (SFS), mediante la medida de FISHER y el último conjunto con SFS basado en el desempeño del clasificador de los vecinos más cercanos (KNN). Finalmente se prueban múltiples clasificadores para cada conjunto por medio de validación cruzada, obteniendo un desempeño superior al 90% para la mayoría de los clasificadores, concluyendo que la metodología propuesta permite una adecuada separación de las clases.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Mais fontes

Teses / dissertações sobre o assunto "Clasificación automática"

1

Peña, Pachamango Denis Bryan. "Sistema mecatrónico para la clasificación automática de cubiertos". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5760.

Texto completo da fonte
Resumo:
Las empresas de catering de alimentos brindan sus servicios a diversos tipos de clientes, ya sean de transporte aéreo, marítimo y/o ferroviario, empresas industriales, mineras, hospitales e instituciones educativas [1]. Considerando la cantidad de clientes que poseen, este tipo de empresas preparan y comercializan aproximadamente entre 500 y 65,000 platos por eventos y/o pedidos en un día [1][2][3]. Esto incluye necesariamente el uso de 500 a 65,000 unidades de cuchillos, cucharas, cucharitas y tenedores, los cuales deben estar lavados, secados y clasificados según su tipo. En cuanto al proceso de clasificado, una persona se demora, haciendo uso de su velocidad máxima, aproximadamente 2 minutos por cada 100 cubiertos (anexo 2). Es decir, a las grandes empresas de catering les toma 21.5 horas-hombre por día realizar esta actividad (65,000 cubiertos). Además, este tipo de trabajo involucra un movimiento repetitivo de los brazos de trabajador, quien podría padecer enfermedades disergonómicas, tal como se indica en la Norma Básica de Ergonomía y de Procedimiento de Evaluación de Riesgo Disergonómico (anexo 1) establecido por El Ministerio de Trabajo y Promoción del Empleo [4]. Ante lo expuesto es necesario plantear una alternativa de mejora de este proceso. En la presente tesis se propone el diseño de una máquina clasificadora automática de cubiertos, de tal forma que se brinde la facilidad de realizar el proceso de clasificación, eliminando posibles problemas de salud de los trabajadores. Este sistema se encarga de clasificar los cuatro principales tipos de cubiertos (cuchillo, cuchara, cucharita y tenedor) dentro de las dimensiones de 12cm a 21 cm de largo, 1,5cm a 4,5 cm de ancho y alto 0.1 a 3cm (anexo 3). Estos son depositados con una misma orientación en recipientes individuales para cada artículo. Su diseño consta de cuatro niveles dispuestos de manera vertical. El Nivel 1 sirve como depósito de cubiertos sin clasificar y dosificador mediante el movimiento vaivén de una banda transportadora. En el Nivel 2 se da lugar a la identificación del tipo y orientación del cubierto mediante el procesamiento de imágenes adquiridas por una cámara digital. Continuando con el proceso, en el Nivel 3 se realiza, en caso sea necesario, el cambio de orientación del cubierto por medio de unas paletas; y la posterior clasificación de los artículos. Finalmente, en el Nivel 4 se recepciona a cada cubierto en el recipiente correspondiente a su tipo. Esta máquina posee una velocidad de clasificación ligeramente superior a la velocidad máxima de una persona (anexo 6). Cabe mencionar que, a diferencia de la persona, la máquina mantendrá una velocidad constante durante todo el proceso. Además, se mejora la calidad de higiene de los cubiertos pues el proceso evita el contacto humano. Por otro lado, el consumo eléctrico de este sistema es 40W (anexo 10). Considerando que el precio de 1,000W es de US$ 7.4 centavos para el consumo industrial [6], el costo de funcionamiento eléctrico del sistema por hora (US$ 0.296) es muy inferior al costo de una hora-hombre (US$ 1.39) [7]. Por estos beneficios, el uso de esa máquina resulta rentable.
Tesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Brown, Manrique Kevin. "Caracterización y clasificación automática de ríos en imágenes satelitales". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8806.

Texto completo da fonte
Resumo:
En los últimos años, el fenómeno conocido como cambio climático se está volviendo cada vez más notorio. Como resultado de este fenómeno, uno de los sectores que se verá más afectado será el de los recursos hídricos debido al impacto que se tendrá sobre el ciclo hidrológico y en los sistemas de gestión de agua, y a través de estos, en los sistemas socioeconómicos. Uno de los impactos conocidos es el conjunto de modificaciones en los patrones de precipitación y caudal de los ríos que afectarán a todos sus usuarios. Los caudales de ríos se forman por sedimentos que han sido y están siendo transportados por agua que fluye y por lo general se pueden clasificar en 4 formas básicas: rectos, meandros, trenzados y anastomosados. Es importante el tener reconocidos los distintos ríos y para ello no basta con conocer su localización sino además tener mapeadas las características de estos según su canal aluvial. Uno de los métodos tradicionales para caracterizar la morfología de un río (anchura, sinuosidad, características de inundación, etc.) es a través de trabajo de campo, que es costoso y demanda tiempo. Estos métodos no sólo consumen tiempo, sino que además, son extremadamente difíciles de llevar a cabo debido a que están sujetos a factores como inundaciones, mareas y tormentas que pueden hacer el lugar inaccesible y peligroso para recolectar información. El presente proyecto de fin de carrera propone una solución ante el problema de la dificultad y alto costo que supone la realización del trabajo de campo que permita caracterizar la morfología de un río. La solución planteada es una nueva técnica computacional para la caracterización automática de la morfología de los ríos, Dimensión Fractal Multi-escala, el cual aprovecha las características fractales de formación de elementos naturales como los ríos. El proyecto inicia con un proceso de limpieza de ruido a los datos de entrada que son esqueletos de ríos, para luego, por cada uno, aplicar el método de Crossing Number para obtener la multiplicidad de canal. Seguidamente, se elaborará una Curva Fractal aplicando el método de Dimensión Fractal Multiescala y de la curva obtenida se extraerán puntos de interés para generar un vector de características necesario para la clasificación. A continuación, se entrenará un clasificador empleando los vectores de características para generar un modelo predictivo. Finalmente, el modelo será evaluado mediante la clasificación de un nuevo esqueleto de río.
Tesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Delgado, Valverde Lizbeth Alejandra. "Identificación Automática de hojas Utilizando un Clasificador Bayesiano". Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2017. http://hdl.handle.net/20.500.11799/79819.

Texto completo da fonte
Resumo:
La identificación automática de plantas es un reto actual muy importante. El desarrollo de sistemas que identifiquen de forma automática las plantas impactará en amplias y distintas áreas como son: la alimentación, medicina, industria, medio ambiente, aduanas. En la literatura actual, varias técnicas han sido propuestas con el objetivo de identificar plantas en diversos campos de aplicación. En este proyecto, se desarrollará un sistema de reconocimiento que permita identificar plantas a partir de imágenes en una base de datos con imágenes con múltiples clases de plantas. Debido a la cantidad de imágenes se requieren descriptores de diferentes tipos que ayuden a aumentar el margen de discriminación entre plantas y mejorar así el desempeño del clasificador. Sin embargo, no solo es importante mejorar el desempeño de los clasificadores, una parte fundamental de los clasificadores es el tiempo de respuesta. Muchos campos de aplicación actuales requieren que la respuesta sea casi inmediata. El presente trabajo propone una solución para la identificación de plantas a partir de sus hojas utilizando un clasificador Bayesiano. Los algoritmos existentes en el estado del arte para la identificación de plantas a partir de hojas utilizan diferentes técnicas de aprendizaje máquina que van desde redes neuronales, Máquinas de Soporte Vectorial, Árboles de decisión hasta clasificadores bayesianos. En este caso, se utilizó un clasificador bayesiano por su velocidad de respuesta y precisión. La presente tesis muestra un análisis comparativo de los tiempos de respuesta del clasificador Bayesiano en comparación con algunos clasificadores del estado del arte actual.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Martín, Fernández Josep Antoni. "Medidas de diferencia y clasificación automática no paramétrica de datos composicionales". Doctoral thesis, Universitat Politècnica de Catalunya, 2001. http://hdl.handle.net/10803/6704.

Texto completo da fonte
Resumo:
Es muy frecuente encontrar datos de tipo composicional en disciplinas tan dispares como son, entre otras, las ciencias de la tierra, la medicina, y la economía. También es frecuente en estos ámbitos el uso de técnicas de clasificación no paramétrica para la detección de agrupaciones naturales en los datos. Sin embargo, una búsqueda bibliográfica bastante exhaustiva y la presentación de resultados preliminares sobre el tema en congresos de ámbito internacional han permitido constatar la inexistencia de un cuerpo teórico y metodológico apropiado que permita desarrollar pautas y recomendaciones a seguir en el momento de realizar una clasificación no paramétrica de datos composicionales. Por estos motivos se ha elegido como tema de tesis la adaptación y desarrollo de métodos de agrupación adecuados a datos de naturaleza composicional, es decir, datos tales que el valor de cada una de sus componentes expresa una proporción respecto de un total. El título de la misma, "Medidas de diferencia y clasificación automática no paramétrica de datos composicionales", recoge no sólo este propósito, sino que añade la expresión "medidas de diferencia" con el propósito de reflejar el peso específico importante que tiene el estudio de este tipo de medida en el desarrollo del trabajo. La expresión "no paramétrica'' se refiere a que en la misma no se considerarán técnicas de clasificación que presuponen la existencia de un modelo de distribución de probabilidad para las observaciones objeto de la agrupación.

La memoria de la tesis se inicia con un capítulo introductorio donde se presentan los elementos básicos de las técnicas de clasificación automática no paramétrica. Se pone especial énfasis en aquellos elementos susceptibles de ser adaptados para su aplicación en clasificaciones de datos composicionales. En el segundo capítulo se aborda el análisis de los conceptos más importantes en torno a los datos composicionales. En este capítulo, los esfuerzos se han concentrado principalmente en estudiar las medidas de diferencia entre datos composicionales junto con las medidas de tendencia central y de dispersión. Con ello se dispone de las herramientas necesarias para proceder al desarrollo de una metodología apropiada para la clasificación no paramétrica de datos composicionales, consistente en incorporar los elementos anteriores a las técnicas habituales y adaptarlas en la medida de lo necesario. El tercer capítulo se dedica exclusivamente a proponer nuevas medidas de diferencia entre datos composicionales basadas en las medidas de divergencia entre distribuciones de probabilidad. En el cuarto capítulo se incorporan las peculiaridades de los datos composicionales a las técnicas de clasificación y se exponen las pautas a seguir en el uso práctico de estas técnicas. El capítulo se completa con la aplicación de la metodología expuesta a un caso práctico. En el quinto capítulo de esta tesis se aborda el denominado problema de los ceros. Se analizan los inconvenientes de los métodos usuales de substitución y se propone una nueva fórmula de substitución de los ceros por redondeo. El capítulo finaliza con el estudio de un caso práctico. En el epílogo de esta memoria se presentan las conclusiones del trabajo de investigación y se indican la líneas futuras de trabajo. En los apéndices finales de esta memoria se recogen los conjuntos de datos utilizados en los casos prácticos que se han desarrollado en la presente tesis. Esta memoria se completa con la lista de las referencias bibliográficas más relevantes que se han consultado para llevar a cabo este trabajo de investigación.
On March 23, 2001 Josep Antoni Martín-Fernández from the Dept. of Computer Sciences and Applied Mathematics of the University of Girona (Catalonia-Spain), presented his PhD thesis, entitled "Measures of difference and non-parametric cluster analysis for compositional data" at the Technical University of Barcelona. A short resumee follows:

Compositional data are by definition proportions of some whole. Thus, their natural sample space is the open simplex and interest lies in the relative behaviour of the components. Basic operations defined on the simplex induce a vector space structure, which justifies the developement of its algebraic-geometric structure: scalar product, norm, and distance. At the same time, hierarchic methods of classification require to establish in advance some or all of the following measures: difference, central tendency and dispersion, in accordance with the nature of the data. J. A. Martín-Fernández studies the requirements for these measures when the data are compositional in type and presents specific measures to be used with the most usual non-parametric methods of cluster analysis. As a part of his thesis he also introduced the centering operation, which has been shown to be a powerful tool to visualize compositional data sets. Furthermore, he defines a new dissimilarity based on measures of divergence between multinomial probability distributions, which is compatible with the nature of compositional data. Finally, J. A. Martín-Fernández presents in his thesis a new method to attack the "Achilles heel" of any statistical analysis of compositional data: the presence of zero values, based on a multiplicative approach which respects the essential properties of this type of data.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Concepción, Tiza Miguel Angel. "Sistema de gestión y clasificación automática de denuncias ambientales mediante aprendizaje de máquina". Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/656797.

Texto completo da fonte
Resumo:
Desde las últimas décadas, el impacto negativo que generan las actividades humanas ha incrementado la importancia de la protección del medio ambiente año tras año tanto en el mundo como en el Perú. Por esta razón, los gobiernos a nivel mundial implementan mecanismos de protección ambiental tales como las denuncias ambientales. Estas permiten a la población informar sobre una posible contaminación ambiental a las autoridades competentes con el fin de que tomen las acciones necesarias, para esto, es necesario que las denuncias sean formuladas, clasificadas y derivadas de forma correcta y oportuna. Sin embargo, para realizar esas tareas de forma correcta se requiere de un amplio conocimiento técnico y legal que pocas personas poseen, esto lleva a que las denuncias ambientales no puedan ser atendidas de forma rápida y eficiente generando malestar en la población afectada. Frente a esta problemática, se propone una solución informática que gestione de forma automática la clasificación y derivación de denuncias ambientales mediante el uso del aprendizaje de máquina. Considerando que la mayoría de las denuncias ambientales consisten en textos se aplica técnicas de procesamiento de lenguaje natural que mediante algoritmos de clasificación de múltiples etiquetas se pueda clasificar automáticamente las denuncias ambientales lo que mejorará los tiempos de atención.
Since the last decades, the negative impact generated by human activities has increased the importance of protecting the environment year after year both in the world and in Peru. For this reason, governments worldwide implement mechanisms for environmental protection such as environmental complaints. These allow the population to report possible environmental contamination to the competent authorities for them to take the necessary actions, for this, it is necessary that the complaints be formulated, classified, and derived in a correct and timely manner. However, to perform these tasks correctly requires extensive technical and legal knowledge that few people possess, this means that environmental complaints cannot be dealt with quickly and efficiently, generating discomfort in the affected population. Faced with this problem, a computer solution is proposed that automatically manages the classification and derivation of environmental complaints using machine learning. Considering that most environmental complaints consists of texts, natural language processing techniques are applied that, using multi-label classification algorithms, environmental complaints can be automatically classified, which will improve service times.
Tesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Kachach, Redouane. "Monitorización visual automática de tráfico rodado". Doctoral thesis, Universidad de Alicante, 2016. http://hdl.handle.net/10045/68987.

Texto completo da fonte
Resumo:
La gestión del tráfico es una tarea muy compleja. La información generada por los sistemas tradicionales de monitorización (por ejemplo espirales) es muy limitada e insuficiente para realizar estudios más ambiciosos y complejos sobre el tráfico. Hoy en día esto es un problema en un mundo donde técnicas como el Big Data se han metido en todos los ámbitos. Esta tesis se enfoca en abordar el problema de monitorización automática de vehículos empleando sensores más modernos como las cámaras. Estos sensores llevan ya varias décadas instalados en las carreteras pero con una misión limitada a la monitorización pasiva de las mismas. El objetivo de la tesis es aprovechar estos sensores con algoritmos capaces de extraer información útil de forma automática de las imágenes. Para ello, vamos a abordar dos problemas clásicos en este campo como son el seguimiento y la clasificación automática de vehículos en varias categorías. Dentro del marco de los sistemas inteligentes de transporte (ITS, por sus siglas en inglés), el trabajo presentado en esta tesis aborda los problemas típicos relacionados con el seguimiento de vehículos como la eliminación de sombras y el manejo de oclusiones. Para ello se ha desarrollado un algoritmo que combina criterios de proximidad espacial y temporal con un algoritmo basado en KLT para el seguimiento tratando de aprovechar las ventajas de cada uno de ellos. En el contexto de la clasificación se ha desarrollado un algoritmo híbrido que combina plantillas 3D que representan las distintas categorías de vehículos junto con un clasificador SVM entrenado con características visuales de camiones y autobuses para afinar la clasificación. Todos los algoritmos utilizan una sola cámara como sensor principal. Los sistemas desarrollados han sido probados y validados experimentalmente sobre una amplia base de vídeos tanto propios como otros independientes. Hemos recopilado y etiquetado una amplia colección de vídeos de tráfico representativos de un variado abanico de situaciones que ponemos a disposición de la comunidad científica como banco de pruebas.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

URDAÑEZ, CARBAJAL Maria Fernanda. "DETECCIÓN AUTOMÁTICA DE GLAUCOMA Y RETINOPATÍA DIABÉTICA USANDO CARACTERÍSTICAS CROMÁTICAS Y TEXTURALES". Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2020. http://hdl.handle.net/20.500.11799/109919.

Texto completo da fonte
Resumo:
La aplicación de los sistemas de visión en diversos campos ha ido creciendo en los últimos años. Los principales retos han sido la mejora del desempeño y disminuir los costos computacionales o complejidad algorítmica. Esta investigación tiene como objetivo analizar las diferentes técnicas de extracción de características de un sistema de visión que permite clasificar el glaucoma y retinopatía diabética a partir de características texturales y cromáticas, de las cuales se utilizaron en este análisis Patrones Binarios Locales, Haralick e Histogramas de Gradientes Ordenados. En los experimentos realizados se utilizaron diferentes clasificadores como: redes neuronales, árboles de decisión, SVM y Naive bayes, realizando la evaluación a partir de técnicas como validación cruzada y área bajo la curva, que nos permitieron tener una comparación del desempeño de los clasificadores así como la representación de la taza de falsos positivos frente a los falsos negativos. Los resultados obtenidos son analizados y comparados en esta tesis, que permitirán también hacer una selección de alguna técnica en base a su complejidad y desempeño.
4996/2020CIB
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Roberto, Rodríguez John Alexander. "Análisis del género discursivo aplicado a la clasificación automática de la polaridad en comentarios sobre productos". Doctoral thesis, Universitat de Barcelona, 2015. http://hdl.handle.net/10803/393892.

Texto completo da fonte
Resumo:
Esta tesis trata sobre el análisis de la polaridad en comentarios sobre productos, más exactamente, sobre la clasificación de comentarios como positivos o negativos a partir del uso de información lingüística. En la tesis presento un enfoque al análisis de la polaridad basado en el género discursivo de los comentarios. Según este enfoque, primero se identifican los segmentos que caracterizan el género discursivo de los comentarios y, posteriormente, se evalúa la utilidad que cada tipo de segmento tiene para determinar la polaridad de los comentarios. La tesis se divide en dos partes. En la primera parte, caracterizo los comentarios como un género mediante el análisis de su estructura discursiva y su registro lingüístico. Sobre la base de ambos análisis postulo que los comentarios se componen de tres tipos principales de segmentos: valorativo, narrativo y descriptivo. En la segunda parte de la tesis, utilizo estos segmentos para calcular la polaridad de los comentarios. La hipótesis de partida es que no todos los segmentos que forman parte del género discursivo de los comentarios contribuyen de la misma manera a expresar la polaridad. Para validar esta hipótesis evalúo tres métodos complementarios que tienen como objetivo detectar y determinar de forma automática la utilidad que tienen los tipos de segmentos para predecir la polaridad de los comentarios. El primer método utiliza información léxica y morfosintáctica para identificar el tipo de segmento que expresa mejor la polaridad del comentario. El segundo método analiza la función que desempeñan las secuencias narrativas en el cálculo de la polaridad. El tercer método se basa en el cálculo de la complejidad sintáctica para identificar y eliminar las oraciones que tienen una polaridad opuesta a la del comentario (oraciones asimétricas) como paso previo a la identificación de los comentarios positivos y negativos. La conclusión principal que se desprende de estos análisis es que existe una relación directa entre el tipo de segmento y la polaridad expresada en el comentario: los usuarios suelen emplear de manera diferente los segmentos según se trate de un comentario positivo o uno negativo. Estas diferencias en el uso de los segmentos me ha llevado a plantear la existencia de dos (sub)géneros discursivos asociados a la expresión de opiniones sobre productos en la Web: el (sub)género de los comentarios positivos y el (sub)género de los comentarios negativos.
This thesis is about polarity analysis of reviews, that is, classifying reviews as either positive or negative based on linguistic evidence. I describe a genre-based approach for the polarity analysis of customer reviews. Genre is characterized by a schematic structure of the discourse composed of different types of stages, each one with a goal-oriented function. This approach to polarity analysis, first, distinguishes stages in the genre of reviews and, subsequently, evaluates the usefulness of each type of stage in the determination of the polarity of the entire review. The thesis is broadly divided into two parts. In the first part, I characterize customer reviews as a discursive genre by analyzing both their structure and their linguistic register. Based on these analysis, I postulate that customer reviews are composed of three main types of stages: valorative, narrative and descriptive. In the second part of the thesis, I determine the usefulness of the different type of stages for the classification of positive and negative reviews. The rationale behind our approach is the assumption that within the specific genre of customer reviews, not all parts of a text contribute equally to expressing the underlying sentiment. In order to validate this hypothesis, I evaluate three alternative methods used to automatically detect and determine the usefulness of each type of stage in the detection of the polarity of the entire review. The first method applies lexical and morphosyntactic information to identify the type of stage that best expresses the polarity of the whole review. The second method analyzes the role played by narrative chains in determining the polarity of reviews. The third method is based on the measurement of syntactic complexity to detect and remove descriptive sentences with the opposite polarity to that of the entire document (asymmetric sentences) as a previous step to identify positive and negative reviews. The main conclusion that has been drawn is that there is a relationship between the types of stages and the polarity expressed in the review: users often employ stages differently according to whether its polarity is positive or negative. These differences in use of stages leads me to the conclusion that there are two (sub)genres, rather than one, for the expression of opinions on the Web: the (sub)genre of positive reviews and the (sub)genre of negative reviews.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Martínez, España Raquel. "Metodologías basadas en minería de datos para el diseño y optimización de técnicas de clasificación automática". Doctoral thesis, Universidad de Murcia, 2014. http://hdl.handle.net/10803/286364.

Texto completo da fonte
Resumo:
La motivación para el desarrollo de esta tesis doctoral se centra en la problemática de la escasez de técnicas de Análisis Inteligente de Datos que trabajen de forma directa con datos imperfectos. Esto ha estado provocado debido al avance de las nuevas tecnologías las cuales han permitido el almacenamiento de grandes volúmenes de información compuestos de diferentes tipos de datos no siempre tan precisos y perfectos como sería deseable. El objetivo global, y por tanto, los objetivos parciales, se encuentran centrados en el desarrollo de técnicas del Análisis Inteligente de Datos que hagan uso de las metodologías que ofrece el Softcomputing para trabajar con datos imperfectos (datos de baja calidad) de forma directa, sin necesidad de una transformación previa. Específicamente, la tesis se centra en las fases de Preprocesamiento de Datos y de Minería de Datos del Análisis Inteligente de Datos. Por una parte, en la fase de Minería de Datos, se proponen las extensiones de tres técnicas. Concretamente, un árbol de decisión fuzzy, un ensamble de árboles de decisión fuzzy y una técnica basada en vecindad. Para la extensión del árbol de decisión fuzzy y del ensamble se ha definido una medida de similitud para calcular el grado de pertenencia de un valor de baja calidad a cada uno de los descendientes de un nodo N dado. Para la extensión de la técnica basada en vecindad (regla k-NN) se ha definido una serie de medidas distancia para calcular la distancia entre los ejemplos y sus vecinos teniendo presente que estos pueden contener datos de baja calidad. Por otra parte, en la fase de Preprocesamiento se propone el diseño e implementación de un conjunto de técnicas que soporten datos de baja calidad. Concretamente, las técnicas presentadas abarcan los procesos de discretización de atributos numéricos, la selección de atributos, la selección de ejemplos y la imputación de valores missing. En la discretización de atributos se ha diseñado una técnica híbrida compuesta por un árbol de decisión fuzzy y un algoritmo genético. La técnica de selección de atributos propuesta es un algoritmo híbrido compuesto por una técnica de filtrado y una técnica wrapper. Por otro lado la técnica de imputación se basa en el diseño de una nueva regla para la técnica de K-NN y para el proceso de selección de ejemplos se ha utilizado la idea básica de una técnica de condensación de ejemplos, con el fin de seleccionar los más representativos. Además se ha desarrollado una herramienta software que recoge parte de las técnicas de preprocesamiento de datos propuestas y desarrolladas a lo largo de la tesis. El objetivo de esta herramienta software, llamada “NIP imperfection processor” (NIPip), es proporcionar un marco de trabajo común donde los investigadores puedan llevar a cabo un preprocesamiento sobre conjuntos de datos bien para añadirles datos de baja calidad o bien para transformar dicho datos de baja calidad en otros tipos de datos. Como conclusión final debemos comentar que las técnicas propuestas y extendidas, y tras realizar un conjunto de experimentos validados estadísticamente, han mostrado un comportamiento robusto, estable, muy satisfactorio y optimista tanto cuando trabajan con datos de baja calidad como datos crisp. Además la herramienta software propuesta aporta un nuevo marco de trabajo, y una mayor flexibilidad y rapidez a la hora de preprocesar datos tanto de baja calidad como crisp, lo cual es muy importante para el diseño de experimentos a gran escala.
The motivation for the development of this doctoral thesis is focused on the problem of the shortage of techniques of Intelligent Data Analysis, working directly with imperfect data. This has been caused by the advance of new technologies which have allowed the storage of large volumes of information of different types composed of data that are not always as precise and perfect as desired. The global aims, and therefore partial objectives, are focused on the development of techniques of Intelligent Data Analysis making use of methodologies provided by Softcomputing to work directly with imperfect data (low quality), without a need for previous transformation. Specifically, the thesis is focused on the Intelligent Data Analysis phases of data preprocessing and data mining. On the one hand, in the phase of data mining, the extensions of three techniques have been proposed. Specifically, a fuzzy decision tree, an ensemble of fuzzy decision trees and a technique based on neighborhood. For the extension of the fuzzy decision tree and the ensemble techniques a similarity measure has been defined. This measure is used to calculate the membership degree of a low quality value to each of the descendants of a given node N. For the extension of the technique based on neighborhood (k-NN rule) a set of distance measures to calculate the distance between the examples and their neighbors has been defined, bearing in mind that the examples may contain low quality data. On the other hand, the design and implementation of a set of techniques, that support low quality data, is proposed in the preprocessing phase. In particular, the techniques presented include the processes of discretization of numerical attributes, of attribute selection, of example selection and of missing value imputation. In the discretization of attributes, a hybrid technique has been designed. This technique is composed of a fuzzy decision tree and a genetic algorithm. The attribute selection technique proposed consists of a hybrid algorithm composed of a filtering technique and a wrapper technique. In addition, the imputation technique is based on the design of a new rule for the technique K-NN. For the process of example selection, the basic idea of a condensation technique of examples has been used, in order to select the most representative examples. Also, a software tool has been developed. This tool includes part of the data preprocessing techniques proposed and developed in this doctoral thesis. The aim of this software tool, called "NIP imperfection processor" (NIPip) is to provide a common framework where researchers can perform preprocessing on datasets either to add low quality data to them or to transform this low quality data into other types of data. As a final conclusion, it must be emphasized that the proposed and extended techniques, after performing a set of statistically validated experiments, have shown robust, stable, very satisfactory and optimistic behavior both when working with low quality data and when working with crisp data. Also, the software tool proposed provides a new framework, and greater flexibility and speed in the data preprocessing both low quality and crisp, which is very important for the design of large-scale experiments.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Torres, Rivera Andrés. "Detección y extracción de neologismos semánticos especializados: un acercamiento mediante clasificación automática de documentos y estrategias de aprendizaje profundo". Doctoral thesis, Universitat Pompeu Fabra, 2019. http://hdl.handle.net/10803/667928.

Texto completo da fonte
Resumo:
En el campo de la neología, se han desarrollado diferentes acercamientos metodológicos para la detección y extracción de neologismos semánticos empleando estrategias como la desambiguación semántica y el modelado de temas, pero todavía no existe una propuesta de un sistema para la detección de estas unidades. A partir de un estudio detallado sobre los supuestos teóricos necesarios para delimitar y describir los neologismos semánticos, en esta tesis proponemos el desarrollo de una aplicación para identificar y vaciar dichas unidades mediante estrategias estadísticas, de minería de datos y de aprendizaje automático. La metodología planteada se basa en el tratamiento del proceso de detección y extracción como un problema de clasificación, que consiste en analizar la concordancia de temas entre el campo semántico del significado principal de una palabra y el texto en el que se encuentra. Para constituir la arquitectura del sistema propuesto, analizamos cinco métodos de clasificación automática supervisada y tres modelos para la generación de representaciones vectoriales de palabras mediante aprendizaje profundo. Nuestro corpus de análisis está compuesto por los neologismos semánticos del ámbito de la informática pertenecientes a la base datos del Observatorio de Neologia de la Universitat Pompeu Fabra, que han sido registrados desde 1989 hasta 2015. Utilizamos este corpus para evaluar los distintos métodos que implementa el sistema: clasificación automática, extracción de palabras a partir de contextos cortos y generación de listas de palabras similares. Este primer acercamiento metodológico busca establecer un marco de referencia en materia de detección y extracción de neologismos semánticos.
Dins del camp de la neologia, s’han dissenyat diferents aproximacions metodològics per a la detecció i extracció de neologismes semàntics amb tècniques com la desambiguació semàntica i el modelatge de temes, però encara no existeix cap proposta d’un sistema per a la detecció d’aquestes unitats. A partir d’un estudi detallat sobre els supòsits teòrics necessaris per identificar i descriure els neologismes semàntics, en aquesta tesi proposem el desenvolupament d’una aplicació per identificar i buidar aquestes unitats mitjançant estratègies estadístiques, de mineria de dades i d’aprenentatge automàtic. La metodologia que es planteja es basa en el tractament del procés de detecció i extracció com un problema de classificació, que consisteix a analitzar la concordança de temes entre el camp semàntic del significat principal d’una paraula i el text en què es troba aquesta paraula. Per constituir l’arquitectura del sistema proposat, analitzem cinc mètodes de classificació automàtica supervisada i tres models per a la generació de representacions vectorials de paraules mitjançant aprenentatge profund. El nostre corpus d’anàlisi està format pels neologismes semàntics de l'àmbit de la informàtica pertanyents a la base de dades de l’Observatori de Neologia de la Universitat Pompeu Fabra, que s’han registrat des de 1989 fins a 2015. Utilitzem aquest corpus per avaluar els diferents mètodes que implementa el sistema: classificació automàtica, extracció de paraules a partir de contextos breus i generació de llistes de paraules similars. Aquesta primera aproximació metodològica busca establir un marc de referència en matèria de detecció i extracció de neologismes semàntics.
Dans le domaine de la néologie, différentes approches méthodologiques ont été développées pour la détection et l’extraction de néologismes sémantiques. Ces approches utilisent des stratégies telles que la désambiguïsation sémantique et la modélisation thématique, mais il n’existe aucun système complet de détection de néologismes sémantiques. Avec une étude détaillée des hypothèses théoriques nécessaires pour délimiter et décrire les néologismes sémantiques, nous proposons dans cette thèse le développement d’une application qui permet d’identifier et d’extraire ces unités à travers de méthodes statistiques, d’extraction d’information et d’apprentissage automatique. La méthodologie proposée est basée sur le traitement du processus de détection et d’extraction en tant que problème de classification. Il consiste à analyser la proximité des thèmes entre le champ sémantique de la signification principale d’un terme et son contexte. Pour la construction du système nous avons étudié cinq méthodes de classification automatique supervisée et trois modèles pour la génération de représentations vectorielles de mots par apprentissage profonde. Le corpus d’analyse est composé de néologismes sémantiques du domaine informatique appartenant à la base de données de l’Observatoire de Néologie de l’Université Pompeu Fabra, enregistrés de 1989 à 2015. Nous utilisons ce corpus pour évaluer les différentes méthodes mises en œuvre par le système : classification automatique, extraction de mots à partir de contextes courts et génération de listes de mots similaires. Cette première approche méthodologique cherche à établir un cadre de référence en termes de détection et d’extraction de néologismes sémantiques.
In the field of neology, different methodological approaches for the detection and extraction of semantic neologisms have been developed using strategies such as word sense disambiguation and topic modeling, but there is still not a proposal for a system for the detection of these units. Beginning from a detailed study on the necessary theoretical assumptions required to delimit and describe semantic neologisms, in this thesis, we propose the development of an application to identify and extract said units using statistical, data mining and machine learning strategies. The proposed methodology is based on treating the process of detection and extraction as a classification task, which consists on analyzing the concordance of topics between the semantic field from the main meaning of a word and the text where it is found. To build the architecture of the proposed system, we analyzed five automatic classification methods and three deep learning based word embedding models. Our analysis corpus is composed of the semantic neologisms of the computer science field belonging to the database of the Observatory of Neology of the Pompeu Fabra University, which have been registered from 1989 to 2015. We used this corpus to evaluate the different methods that our system implements: automatic classification, keyword extraction from short contexts, and similarity list generation. This first methodological approach aims to establish a framework of reference in terms of detection and extraction of semantic neologisms.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Mais fontes

Livros sobre o assunto "Clasificación automática"

1

Oliva Abarca, Jesús Eduardo. Cultura y Big Data. Métodos y técnicas para el análisis cultural en una sociedad datificada. Ediciones Comunicación Científica, 2021. http://dx.doi.org/10.52501/cc.014.

Texto completo da fonte
Resumo:
El propósito de este libro es ejemplificar los conceptos, métodos y aplicaciones de la analítica cultural, propuesta formulada por Lev Manovich, y que consiste en el empleo sistemático de herramientas y técnicas de la ciencia de datos para el análisis de datos masivos de fenómenos culturales. Con tal objetivo, se presentan tres estudios que ejemplifican diferentes flujos de trabajo desde este enfoque. El primero consiste en un análisis del micromecenazgo cultural y creativo en México y América Latina, así como en la elaboración de dos sistemas de recomendación a partir de la recolección automatizada de datos mediante “raspado de red” (web scraping), todo ello con la finalidad de brindar información relevante para la financiación de proyectos de artistas y creativos independientes. El segundo estudio es la aplicación de técnicas de procesamiento de lenguaje natural (natural language processing) a un corpus conformado por diversos tweets, a partir de los cuales se elabora un modelo de clasificación automática de textos. A partir del examen automatizado de atributos sintácticos y semánticos, se perciben las diferencias estructurales entre tweets clasificados como noticias, frases o reflexiones, y ficciones. En el tercer estudio se abordan las posibilidades y usos de la visión computacional para el análisis y modelado de sistemas de clasificación de imágenes de obras plásticas; para ello, se parte del método iconográfico-iconológico, así como del procesamiento automatizado de atributos visuales de piezas artísticas. Del desarrollo de estas investigaciones se ratifica la necesidad de fomentar abordajes interdisciplinarios para el análisis de la cultura.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Capítulos de livros sobre o assunto "Clasificación automática"

1

Puente, Santiago, Pablo Gil e Víctor de Gea. "Clasificación y manipulación de basura doméstica utilizando deep-learning". In XLII JORNADAS DE AUTOMÁTICA : LIBRO DE ACTAS, 701–8. Servizo de Publicacións da UDC, 2021. http://dx.doi.org/10.17979/spudc.9788497498043.695.

Texto completo da fonte
Resumo:
Este artículo presenta una aplicación de reconocimiento mediante el uso de redes de aprendizaje profundo para llevar a cabo la clasificación de basura en el ámbito doméstico. Así mismo, una vez realizado el reconocimiento se determina su localización, para poder obtener los puntos de agarre para que un brazo robot dotado de una pinza de dedos paralelos pueda hacerlo de manera automática. Se presenta el algoritmo utilizado, así como, los resultados experimentales que permiten comprobar la bondad de la propuesta.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Toledano, Pablo T., Gloria Bueno, Noelia Vállez, Óscar Déniz e Jesús Salido. "MicroHikari3D: Transformando una impresora 3D en un microscopio robotizado moderno". In XLII JORNADAS DE AUTOMÁTICA : LIBRO DE ACTAS, 678–85. Servizo de Publicacións da UDC, 2021. http://dx.doi.org/10.17979/spudc.9788497498043.678.

Texto completo da fonte
Resumo:
Los microscopios son una herramienta imprescindible para diferentes aplicaciones en biología y medicina, entre otros. La automatización de estos microscopios y la integración de herramientas de análisis automático de imagen es un gran avance en microscopía, pero la mayoría de los sistemas disponibles en el mercado con estas prestaciones tienen un precio elevado. Por otro lado, en los últimos años ha habido un auge importante del desarrollo y venta de impresoras 3D a un precio muy asequible. Por ello, en este trabajo se busca ofrecer un kit modular que permita convertir una impresora 3D en un microscopio motorizado completamente funcional y automatizado. Para conseguir este objetivo, se ha seleccionado una impresora 3D, de la que se ha reaprovechado el eje de movimiento cartesiano, y se le ha acoplado un sistema óptico basado en Raspberry Pi HQ Camera, una iluminación superior e inferior y además de una base para portaobjetos nueva. Así como herramientas de procesado y métodos de clasificación automática de la imagen. Con esto se conseguirá un sistema de microscopía modular y de bajo coste, capaz de capturar muestras microscópicas de organismos y tejidos en portas 2D y en placas Petri 3D.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Lucas, Sergio, Asier Brull, Eva Portillo, Asier Zubizarreta e Itziar Cabanes. "Aplicación de técnicas de aprendizaje automático para la clasificación de actividades mediante una muleta inteligente para esclerosis múltiple". In XLII JORNADAS DE AUTOMÁTICA : LIBRO DE ACTAS, 83–90. Servizo de Publicacións da UDC, 2021. http://dx.doi.org/10.17979/spudc.9788497498043.083.

Texto completo da fonte
Resumo:
El nivel de actividad física diaria que un paciente de Esclerosis Múltiple es capaz de realizar se ha demostrado que es una importante fuente de información para el seguimiento de la enfermedad y la adaptación individualizada de las terapias. Así, en este trabajo se propone el diseño de un clasificador de actividades de la vida diaria, realizado mediante la combinación de dos técnicas de Inteligencia Artificial (RandomForest y Redes Neuronales Artificiales), el cual podría facilitar información de valor a las y los terapeutas.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Narváez, Fabián. "Clasificación automática de nódulos mamográficos basada en fusión de información visual multi-vista". In Aplicaciones e innovación de la ingeniería em ciencia y tecnología, 233–63. Editorial Abya-Yala, 2019. http://dx.doi.org/10.7476/9789978104910.0009.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

"Licencias de importación no automáticas, contingentes, prohibiciones, medidas de control de la cantidad y otras restricciones excepto las medidas sanitarias y fitosanitarias y los obstáculos técnicos al comercio". In Clasificación internacional de las medidas no arancelarias 2019, 25–33. United Nations, 2021. http://dx.doi.org/10.18356/9789210042024c007.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.

Trabalhos de conferências sobre o assunto "Clasificación automática"

1

Gandarías, Juan M., Jesús M. Gómez-de-Gabriel e Alfonso García Cerezo. "Clasificación de la información táctil para la detección de personas". In XXXVIII Jornadas de Automática. Universidade da Coruña. Servizo de Publicacións, 2020. http://dx.doi.org/10.17979/spudc.9788497497749.0732.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Sánchez-Galan, Javier. "MACHINE LEARNING Y SUS APLICACIONES". In V Congreso de Investigación Desarrollo en Innovación de la Universidad Internacional de Ciencia y Tecnología. Universidad Internacional de Ciencia y Tecnología, 2021. http://dx.doi.org/10.47300/978-9962-5599-8-6-03.

Texto completo da fonte
Resumo:
En la charla se presentaron conceptos básicos e historia de la metodología de desarrollo de software llamada Machine Learning (ML) o aprendizaje automático (AA, en español. Se explicaron los tres distintos tipos de aprendizaje que existen dentro del AA, aprendizaje supervisado, no-supervisado y por refuerzo; que se utilizan dependiendo de la tarea que se quiere lograr. Se expusieron las diversas aplicaciones que ha abordado el grupo de investigación utilizando esta metodología para preguntas de investigación de relevancia nacional. Desde ayuda en análisis de bioinformática (apoyando a la determinación espectral-molecular de especies de mosquitos), ecología (determinación y clasificación de vocalizaciones de manatíes) y aplicaciones en agricultura (para la determinación automática de variedades de plantas arroz y para la clasificación automática de sandias para exportación). La charla concluyó con una reflexión de los últimos avances de esta metodología y se presentó el reciente caso de la predicción del doblaje en proteínas con el algoritmo Alphafold 2.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Ponz, Aurelio, Fernando García, David Martín, Arturo de la Escalera e José María Armingol. "Clasificación automática de obstáculos empleando escáner láser y visión por ordenador". In XXXVIII Jornadas de Automática. Universidade da Coruña. Servizo de Publicacións, 2020. http://dx.doi.org/10.17979/spudc.9788497497749.0999.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Otazua, Enaitz, Eloy Irigoyen, Eukene Imatz-Ojanguren e Thierry Keller. "Comparación de algoritmos de aprendizaje automático para la clasificación de posturas de la mano y dedos". In XL Jornadas de Automática. Universidade da Coruña. Servizo de Publicacións, 2020. http://dx.doi.org/10.17979/spudc.9788497497169.211.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Romero, Dennis, Roberto Yoncon, Angel Guale, Bonny Bayot e Fanny Panchana. "Evaluación de técnicas de clasificación orientadas a la identificación automática de órganos del camarón a partir de imágenes histológicas". In The 15th LACCEI International Multi-Conference for Engineering, Education, and Technology: “Global Partnership for Development and Engineering Education”. Latin American and Caribbean Consortium of Engineering Institutions, 2017. http://dx.doi.org/10.18687/laccei2017.1.1.178.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Carnero, María Carmen. "Selección de Aplicación para Gamificación en una Asignatura de los Grados en Ingeniería Eléctrica y Electrónica Industrial y Automática". In INNODOCT 2019. Valencia: Universitat Politècnica de València, 2019. http://dx.doi.org/10.4995/inn2019.2019.10252.

Texto completo da fonte
Resumo:
Debido al gran número de beneficios que reporta, el número de aplicaciones para gamificación se ha incrementado considerablemente desde 2002. Por ello, la selección de la aplicación idónea a emplear en una asignatura universitaria de grado se ha vuelto más compleja. Esta contribución pretende ayudar en esta toma de decisiones proponiendo un modelo objetivo elaborado mediante Measuring Attractiveness by a Categorical Based Evaluation Technique (MACBETH). Este modelo se ha aplicado a una asignatura de los grados en Ingeniería Eléctrica e Ingeniería Electrónica Industrial y Automática de la Escuela Técnica Superior de Ingenieros Industriales de Ciudad Real, empleándose como centro decisor uno de los profesores de la asignatura. El modelo emplea diez criterios de decisión dispuestos en una estructura jerárquica. Para cada criterio, a partir de una matriz de comparaciones por parejas construida a partir de los juicios emitidos por el centro decisor, se obtiene mediante programación lineal una función de valor. Mediante la aplicación de la metodología MACBETH, y con la ayuda del software M-MACBETH, que emplea un método simple aditivo, se obtiene una clasificación completa de las diferentes aplicaciones para gamificación evaluadas.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Copa Pineda, Juan Carlos, Raul Sulla Torres e Jose Sulla-Torres. "Clasificación de niveles de Medida de la Función Motora Gruesa mediante técnicas de Aprendizaje Automático". In The 18th LACCEI International Multi-Conference for Engineering, Education, and Technology: Engineering, Integration, And Alliances for A Sustainable Development” “Hemispheric Cooperation for Competitiveness and Prosperity on A Knowledge-Based Economy”. Latin American and Caribbean Consortium of Engineering Institutions, 2020. http://dx.doi.org/10.18687/laccei2020.1.1.216.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Bedoya-Carrillo, Alan, Marco Cossio-Bolaños, Rossana Gomez-Campos e Jose Sulla-Torres. "Clasificación de la densidad mineral ósea utilizando técnicas de aprendizaje automático en niños y adolescentes según edad y sexo". In The 17th LACCEI International Multi-Conference for Engineering, Education, and Technology: “Industry, Innovation, and Infrastructure for Sustainable Cities and Communities”. Latin American and Caribbean Consortium of Engineering Institutions, 2019. http://dx.doi.org/10.18687/laccei2019.1.1.120.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Morales Sánchez, Francisco José, Luis Miguel Romero Perez, Noelia Cáceres Sánchez, Antonio Reyes Gutiérrez e Francisco García Benítez. "Obtención y análisis de aforos desagregados de transportes de mercancías peligrosas mediante sistemas ANPR". In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.3796.

Texto completo da fonte
Resumo:
La fuente de información disponible, a nivel nacional, sobre flujos de tráfico que involucran mercancías peligrosas se encuentra publicada anualmente en el Mapa de Tráfico editado por el Ministerio de Fomento. Esta información, de carácter informativo, es presentada de forma agregada; obtenida mediante aforos manuales que se capturan en 6 campañas anuales, en días laborables de meses alternos y en un periodo temporal limitado a seis horas. Los datos no revelan la distribución de la tipología de mercancía peligrosa transportada. Esta distribución sí puede inferirse haciendo uso de sistemas ANPR (Automatic Number Plate Recognition), mediante la captura de datos durante las 24 horas diarias, para los 365 días del año. El sistema y metodología que se reporta en este estudio demuestra la capacidad de estimación del flujo de vehículos y tipología de materia peligrosa transportada mediante la lectura del código ONU que identifica de forma unívoca la tipología de ésta y que se encuentra incluido dentro de la placa naranja de identificación de peligro que obligatoriamente deben llevar los vehículos que realizan el transporte de este tipo de mercancía. El sistema se encarga de la interpretación de la materia transportada y el peligro asociado, así como de la posición y dirección de dicho vehículo, registrando la información en un servidor central. El sistema está constituido por un conjunto distribuido de estaciones de lectura ubicadas en puntos de observación estratégicos. Con la información capturada con este sistema automático, se realiza una comparativa con la fuente de información agregada, para derivar conclusiones sobre el grado de utilidad de la información publicada. Con la inferencia de la información desagregada es posible realizar una multiplicidad de análisis tales como, clasificación de materias por su importancia en cuanto al volumen transportado, identificación de los puntos con un mayor riesgo medioambiental, y actualización de matrices de origen-destino de mercancías peligrosas, entre otros.DOI: http://dx.doi.org/10.4995/CIT2016.2016.3796
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia