Literatura académica sobre el tema "330417 - Sistemas en tiempo real"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "330417 - Sistemas en tiempo real".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "330417 - Sistemas en tiempo real"

1

de la Puente, Juan Antonio, Alfons Crespo y Michael González Harbour. "Presentación de la sección especial sobre sistemas de tiempo real". Revista Iberoamericana de Automática e Informática Industrial RIAI 10, n.º 2 (abril de 2013): 185. http://dx.doi.org/10.1016/j.riai.2013.03.014.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Aparicio-Santos, J., J. Hermosillo-Gómez, H. Benítez-Pérez y L. Álvarez-Icaza. "Controlador difuso para compensar cargas de comunicación en sistemas en tiempo real". Revista Iberoamericana de Automática e Informática industrial 18, n.º 3 (1 de julio de 2021): 288. http://dx.doi.org/10.4995/riai.2021.14544.

Texto completo
Resumen
Se presenta un administrador de recursos (RM) difuso para compensar las cargas de comunicación en sistemas en tiempo real. El diseño del RM se basa en un nuevo modelo de Servidor de Ancho de Banda Constante (CBS) que se encarga, a través de una plataforma virtual, de asignar tiempo de proceso a las tareas de mayor prioridad cuando existe capacidad disponible. Si se asume que cada aplicación puede ser ejecutada con diferentes niveles de servicio sin que este esté por debajo de un límite mínimo, se propone una aproximación difusa que permite actualizar de manera gradual los tiempos de proceso asignados a cada tarea. Esta aproximación permite compensar el comportamiento no lineal en las solicitudes de tiempo de proceso. El RM aumenta o disminuye la plataforma virtual para cada aplicación y le asigna un presupuesto máximo de tiempo de proceso, mismo que la aplicación usa gradualmente y que se reasigna al agotarse, sin por ello afectar el desempeño del resto de las aplicaciones. El esquema se auto-ajusta cuando ocurren a cambios repentinos en los requerimientos de tiempo de proceso de las aplicaciones.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Pérez Tijero, Héctor y J. Javier Gutiérrez. "Desarrollo de Sistemas Distribuidos de Tiempo Real y de Criticidad Mixta a través del Estándar DDS". Revista Iberoamericana de Automática e Informática industrial 15, n.º 4 (24 de septiembre de 2018): 439. http://dx.doi.org/10.4995/riai.2017.9000.

Texto completo
Resumen
<p>El uso de middleware de distribución facilita la programación de sistemas distribuidos de tiempo real heterogéneos, y por extensión también puede facilitar la generación automática de código como parte de una estrategia de desarrollo basada en modelos. Sin embargo, esta clase de middleware presenta una complejidad añadida que dificulta su uso en sistemas con ciertos requisitos de criticidad o de tiempo real. En este trabajo se hace una revisión de algunos estudios previos en los que se muestra la posibilidad de utilizar un middleware de distribución centrado en los datos (DDS, Data Distribution Service) para la integración de aplicaciones con criticidad mixta en sistemas distribuidos.</p>
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Esquivel-Flores, O. y H. Benítez-Pérez. "Reconfiguración Dinámica de Sistemas Distribuidos en Tiempo-Real Basada en Agentes". Revista Iberoamericana de Automática e Informática Industrial RIAI 9, n.º 3 (julio de 2012): 300–313. http://dx.doi.org/10.1016/j.riai.2012.05.014.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Amurrio, Andoni, Ekain Azketa, J. Javier Gutiérrez, Mario Aldea y Jorge Parra. "Una revisión de técnicas para la optimización del despliegue y planificación de sistemas de tiempo real distribuidos". Revista Iberoamericana de Automática e Informática industrial 16, n.º 3 (12 de junio de 2019): 249. http://dx.doi.org/10.4995/riai.2019.10997.

Texto completo
Resumen
<p>En las últimas tres décadas, se ha realizado un gran número de propuestas sobre la optimización del despliegue y planificación de sistemas de tiempo real distribuidos bajo diferentes enfoques algorítmicos que aportan soluciones aceptables a este problema catalogado como NP-difícil. En la actualidad, la mayor parte de los sistemas utilizados en el sector industrial son sistemas de criticidad mixta en los que se puede usar la planificación cíclica, las prioridades fijas y el particionado, que proporciona aislamiento temporal y espacial a las aplicaciones. Así, en este artículo se realiza una revisión de los trabajos publicados sobre este tema y se presenta un análisis de las diferentes soluciones aportadas para sistemas de tiempo real distribuidos basados en las políticas de<br />planificación que se están usando en la práctica. Como resultado de la comparación, se presenta una tabla a modo de guía en la que se relacionan los trabajos revisados y se caracterizan sus soluciones.</p>
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Alzate Castaño, Ricardo y German Castellanos Domínguez. "Realización para un DSP de Aplicaciones en Tiempo Real". INGENIERÍA Y COMPETITIVIDAD 6, n.º 1 (6 de junio de 2011): 7–16. http://dx.doi.org/10.25100/iyc.v6i1.2284.

Texto completo
Resumen
Se plantea una metodología para el diseño de sistemas en tiempo real, orientados hacia la ejecución final en una plataforma de Hardware (DSP), con base en la descomposición jerárquica de un problema a manera de etapas constitutivas fundamentales, donde el último nivel (etapa base), se desarrolla aplicando técnicas de procesamiento digital de señales, que buscan implementar los algoritmos adecuados para facilitar la obtención del objetivo planteado. Se realiza como ejemplo ilustrativo, la estimación de la frecuencia fundamental (pitch), en una señal de voz, donde los resultados obtenidos en términos de tiempos de proceso y valores calculados, se consideran satisfactorios respecto a modelos de referencia. Aunque se acepta la posibilidad de complementar dicho procedimiento con rutinas de optimización, que maximicen el aprovechamiento para los recursos potenciales del sistema.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Avendaño Pérez, Jonathan, Sergio Mora Martínez, John Edwin Vera y Andrés Andrés Torres Pérez. "Detección de movimiento en tiempo real utilizando flujo óptico". Visión electrónica 9, n.º 1 (30 de junio de 2015): 13–20. http://dx.doi.org/10.14483/22484728.11010.

Texto completo
Resumen
Se muestra la implementación de algoritmos de flujo óptico y extracción de características para el reconocimiento y detección de objetos en tiempo real de una secuencia de imágenes. Se implementaron algoritmos de flujo óptico y de detección de características SIFT, SURF y un estudio sobre la influencia de los cambios de iluminación en el ambiente de la escena analizando el funcionamiento y desempeño. Durante los cambios de iluminación se encontró que los puntos de interés entre dos imágenes consecutivas se reducen debido a que los algoritmos de detección no encuentran patrones similares y todos los niveles de intensidad son diferentes. Los resultados experimentales muestran que el algoritmo propuesto es funcional en escenas donde la luminosidad es constante y no es inferior a 1 Lux, se entrega una herramienta útil para sistemas de vigilancia y robótica móvil.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Gómez López, Arley. "Pandemia por COVID19 – Un Reto en tiempo real". Revista Repertorio de Medicina y Cirugía 29, n.º 2 (18 de agosto de 2020): 1–3. http://dx.doi.org/10.31260/repertmedcir.01217372.1058.

Texto completo
Resumen
En el siglo XVI las enfermedades más devastadoras de origen respiratorio eran conocidas como fiebre catarral; pero a partir del siglo XIX fueron denominadas influenza y posteriormente gripe, siendo la más conocida de ellas la denominada “gripe española”, causada por el virus de influenza tipo A; subtipo H1N1. Gracias a los registros sanitarios de la época, podemos saber que está infección fue desde su inicio un reto para los sistemas de salud y el personal médico, dado que en la mayoría de los hospitales no se conocía la causa, los síntomas y mucho menos como tratarla; de hecho, se promulgaron múltiples tratamientos desde la aspirina y la quinina hasta la trementina, siendo esta última utilizada para estimular al sistema inmune. Cien años después, la humanidad vuelve a enfrentarse a una pandemia que a la fecha solo tiene una constante, la incertidumbre, toda vez que su agente causal el virus SARS-CoV2, cuyo genoma fue dado a conocer el pasado 12 de enero por el instituto de investigaciones de Whan en China; al igual que múltiples aspectos de la infección denominada COVID-19, siguen siendo motivo de investigación y controversia a nivel mundial.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Loarte Cajamarca, Byron Gustavo y Ivonne Fernanda Maldonado Soliz. "Desarrollo de una aplicación web y móvil en tiempo real, una evolución de las aplicaciones actuales". Ciencia Digital 3, n.º 1 (15 de febrero de 2019): 189–98. http://dx.doi.org/10.33262/cienciadigital.v3i1.282.

Texto completo
Resumen
El irrevocable crecimiento exponencial del desarrollo de aplicaciones web y móviles, provocan tendencia en que las empresas deban implementarlas si quieren seguir siendo competitivos dentro del mercado. Es por ello que actualmente las aplicaciones son la respuesta inmediata a cualquier interacción, lo que en tecnología se conoce como Tiempo Real. Los sistemas de comunicación en tiempo real han cobrado mayor importancia debido a que es imprescindible el estar cada vez más conectados ya sea a aplicaciones de mensajería instantánea, herramientas de colaboración en la edición de gráficos, y hasta videojuegos online en realidad virtual. El surgimiento de nuevas herramientas para el desarrollo de estas aplicaciones son la clave para plantear una descripción general sobre el funcionamiento de los sistemas y aplicaciones en tiempo real, más que profundizar en cada uno de estos aspectos, lo que se ha buscado es ofrecer los elementos básicos para tener una visión amplia de este tipo de aplicaciones, conjuntamente con el desarrollo de una aplicación web y móvil con estas nuevas tendencias.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Velásquez C., José Antonio. "Supervisión y Control de Sistemas CIM". Paradigmas 2, n.º 1 (9 de julio de 2018): 165–75. http://dx.doi.org/10.31381/paradigmas.v2i1.1510.

Texto completo
Resumen
Los software de supervisión y control de procesos (SCADA) permiten adquirir información de un proceso en tiempo real, elaborar y archivar datos y además tomar decisiones en función a los datos obtenidos, todo ello a través de una computadora que puede estar conectada de manera local o remota. El presente artículo describe el funcionamiento del software Cosimir Control y la programación que se debe realizar para iniciar los procesos de las estaciones de ensamblaje y prensa hidrapulica del Laboratorio CIM de la Universidad Ricardo Palma.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Más fuentes

Tesis sobre el tema "330417 - Sistemas en tiempo real"

1

Pérez, Llopis Israel. "Arquitectura de un sistema C4ISR para pequeñas unidades". Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/6067.

Texto completo
Resumen
La presente tesis doctoral aborda el problema de los sistemas de mando y control, y en concreto los sistemas C4ISR. Los sistemas C4ISr (Command Control, Computers and Communications Information Surveillance and Reconaissance) engloban un amplio número de arquitecturas y sistemas informáticos y de comunicaciones. Su principal finalidad, tanto en aplicaciones civiles como militares, es la de obtener información sobre el estado del teatro de operaciones para entregársela, convenientemente formateada, a las personas al mando de una operación de forma que se construyan una adecuada visión del mismo que les permita tomar las decisiones correctas. Por otra parte, deben servir de plataforma de comunicaciones para transmitir dichas órdenes y cualquier otra información que se estime oportuna. La presente tesis doctoral se centra en identificar las necesidades existentes en mando y control a nivel táctico, tanto en la vertiente civil como en la militar, y plantear una arquitectura global para sistemas C4ISR que permita diseñar, desarrollar e implementar una solución de sistema de mando y control de pequeñas unidades (nivel de batallón e inferiores) para mejorar la conciencia situacional, tanto individual como como compartida, de los comandantes en esos niveles. Se ha promovido el planteamiento de arquitecturas y el desarrollo de sistemas que implementen los novedosos conceptos de mando y control, detectados en la literatura científica reciente, para la consecución de la efectividad en el cumplimiento de una misión, siguiendo la filosofía COTS (Commercial off-the self), enfatizando el uso de estándares en todos sus componentes y una aproximación OSS (open source software) en el desarrollo de componentes software, e integrando fluljos multimedia como una de las principales aportaciones. Para ello se ha realizado un exhaustivo y profundo análisis del estado del arte acerca de los sistemas de mando y control, desde sus comienzos hasta las últimas propuestas. Esto nos ha conducido
Pérez Llopis, I. (2009). Arquitectura de un sistema C4ISR para pequeñas unidades [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6067
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Díaz, Ramírez Arnoldo. "Marco de referencia para la definición de planificadores a nivel de usuario en sistemas de tiempo-real". Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/1934.

Texto completo
Resumen
Después de más de 25 años de intensa investigación, la planificación de sistemas de tiempo-real ha mostrado una transición que va desde una infraestructura basada en ejecutivos cíclicos, a modelos de planificación más flexibles, tales como planificación basada en prioridades estáticas y dinámicas, planificación de tareas no críticas, y planificación con retroalimentación, por nombrar algunas. A pesar de lo anterior, actualmente tan sólo unas cuantas políticas de planificación están disponibles para la implementación de sistemas de tiempo-real. Por ejemplo, la mayoría de los sistemas operativos de tiempo-real existentes proporcionan únicamente planificación basada en prioridades fijas. Sin embargo, no todos los requerimientos de las aplicaciones de tiempo-real pueden ser satisfactoriamente atendidos utilizando exclusivamente planificación estática. Existen sistemas constituidos por tareas críticas y no críticas que son planificados de mejor manera utilizando planificación basada en prioridades dinámicas. Además, se ha demostrado que la planificación dinámica permite una mayor utilización de los recursos del sistema. En años recientes, algunos autores han publicado diferentes esquemas para integrar nuevas políticas de planificación a un sistema operativo. Algunos de ellos proponen que los nuevos servicios de planificación se implementen a nivel de usuario, evitando así que la estructura interna del sistema operativo tenga que ser modificada, y ofreciendo la oportunidad de implementar y probar muchos de los resultados generados por el trabajo de investigación en el área de planificación de sistemas de tiempo-real. De entre los trabajos relacionados publicados a la fecha, destaca el Modelo para la Planificación Definida por el Usuario, propuesto por Mario Aldea y Michael González-Harbour. El modelo presenta una Interfaz para Programas de Aplicación (API) que permite crear y utilizar planificadores a nivel de usuario de manera compatible con el modelo de planificación
Díaz Ramírez, A. (2006). Marco de referencia para la definición de planificadores a nivel de usuario en sistemas de tiempo-real [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1934
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Blanc, Clavero Sara. "Validación de la arquitectura TTA mediante inyección física de fallos a nivel de PIN". Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/2344.

Texto completo
Resumen
Los sistemas informáticos se encuentran presentes en muchos ámbitos, desde los relacionados con la industria hasta el hogar. Cada vez con más frecuencia, uno de los requisitos principales a la hora de diseñar sistemas informáticos es que presenten un alto grado de confiabilidad, especialmente aquellos considerados como críticos, ya que su mal funcionamiento puede poner el peligro la integridad de las personas o puede ocasionar grandes pérdidas económicas. Además, la confiabilidad también puede ser un factor importante en su expansión y competitividad en el mercado. La confiabilidad permite al usuario depositar una confianza justificada en el funcionamiento del producto y debe ser evaluada antes de su fase operacional mediante la verificación y validación del comportamiento del sistema según el servicio especificado tanto en condiciones normales como en presencia de fallos. Sin embargo la tasa de fallos en un sistema informático suele ser baja, siendo necesario recurrir a técnicas de validación experimental como la Inyección de Fallos que aceleran la validación mediante la introducción deliberada y controlada de fallos en el sistema. En general, el efecto de los fallos físicos en los semiconductores actuales, donde el incremento de la frecuencia de funcionamiento y la densidad de integración son notables, es más importante que el observado con tecnologías menos avanzadas. Ya no es justificable el asumir que un fallo simple sólo genera un error simple, siendo necesario validar el sistema ante errores múltiples causados no sólo por fallos localizados en memoria, sino también en la lógica combinacional o en soldaduras y metalizaciones, acrecentados estos últimos por la reducción de la distancia entre pistas. Existen diversas técnicas y herramientas de inyección de fallos, entre ellas, la Inyección física a nivel de pin. Una de sus principales ventajas es su aplicación externa, no generando sobrecarga adicional en el sistema o perturbando la ejecución normal de sus tar
Blanc Clavero, S. (2004). Validación de la arquitectura TTA mediante inyección física de fallos a nivel de PIN [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2344
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Ramírez, Agundis Agustín. "Diseño y experimentación de un cuantizador vectorial hardware basado en redes neuronales para un sistema de codificación de video". Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/3444.

Texto completo
Resumen
El objetivo general de esta Tesis es el estudio de las redes neuronales artificiales (ANN) con implementación hardware enfocadas hacia la compresión de imágenes y video en tiempo real. Como objetivos específicos, la Tesis se propone: explorar la factibilidad de utilizar las redes neuronales en las diferentes etapas de un sistema de compresión de imágenes; evaluar las redes Self Organizing Feature Map (SOM) en su implementación hardware utilizadas para la cuantización vectorial de imágenes; analizar la capacidad para procesar video en tiempo real de un sistema de compresión de imágenes que combine la cuantización vectorial basada en redes neuronales con otras técnicas; y estructurar un sistema para realizar el entrenamiento de redes neuronales utilizando esquemas de co-diseño hardware-software. La Tesis expone primeramente los conceptos fundamentales relacionados con la compresión de imágenes considerando tanto los principios teóricos subyacentes como las técnicas que se usan para llevar a cabo las tareas involucradas con las diferentes etapas que integran un compresor. A continuación efectúa una revisión de los trabajos de investigación en los que las ANN se utilizan para la compresión de imágenes, tarea que es precedida por un breve repaso del desarrollo que se ha observado en el campo de las ANN. En la parte práctica la Tesis tiene dos apartados. En el primero se desarrolla una red neuronal tipo SOM que se utiliza como cuantizador vectorial para la aplicación de que se ocupa. Partiendo del análisis de seis arquitecturas susceptibles de ser usadas, la red SOM se diseña utilizando una arquitectura masivamente paralela tipo SIMD y se implementa en hardware sobre una FPGA. Finalmente se experimenta con la red y se presentan los resultados. En el segundo apartado se estructura el banco de entrenamiento para la red SOM utilizando una metodología de codiseño hardware-software en la cual la red neuronal SOM se integra al banco como núcleo de un neurocoprocesador en u
Ramírez Agundis, A. (2008). Diseño y experimentación de un cuantizador vectorial hardware basado en redes neuronales para un sistema de codificación de video [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3444
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Carvajal, Rodrigo Federico Jesús. "Adaptación de modelos de datos tácticos de sistemas de información para mando y control a la gestión de emergencias". Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/1960.

Texto completo
Resumen
Con la presente Tesis doctoral se pretende profundizar en la problemática del modelado de datos en el ámbito militar, analizar las diferentes soluciones de interoperabilidad entre sistemas C2IS que están vigentes hoy en día y las que están en fase de experimentación en la actualidad, para adaptarlas al entorno de la gestión y coordinación de crisis civiles en las que participan distintos cuerpos de seguridad y servicios de emergencia. Para conseguir este objetivo global se ha llevado a cabo las siguientes investigaciones y desarrollos informáticos: " Realizar un exhaustivo análisis del estado del arte del modelado de datos para sistemas C2I militares, desde sus comienzos hasta los últimos experimentos de interoperabilidad de la OTAN. Será analizada con especial interés la iniciativa internacional Multilateral Interoperability Program MIP, que es la entidad encargada del desarrollo y actualización del sistema de interoperabilidad adoptado por la Organización del Tratado del Atlántico Norte, OTAN. Este análisis nos permitirá tener una idea clara de la evolución del modelado de datos en el ámbito militar y poder seguir las tendencias e iniciativas internacionales encaminadas a resolver los problemas de interoperabilidad planteados, en las operaciones conjuntas, debido a la falta de correlación de los distintos modelos de datos de los sistemas C2I de los países aliados. " Una vez analizada en profundidad la problemática del modelado de datos para sistemas C2I militares y sus posibles soluciones, se estudiará los modos de coordinación y gestión de crisis civiles de gran magnitud, atendiendo principalmente a la resolución de los problemas de mando, control y coordinación de recursos detectados, en algunas de las mayores crisis que se han desencadenado en los últimos tiempos; 11S en Nueva York o el tsumani del 2004 en Indonesia. " Implementar y comparar las soluciones de interoperabilidad más extendidas actualmente, describiendo los procesos operativos de intercambio de da
Carvajal Rodrigo, FJ. (2007). Adaptación de modelos de datos tácticos de sistemas de información para mando y control a la gestión de emergencias [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1960
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Navarro, García Danilo Alfonzo. "Contribución a la autolocalización de robots móviles basada en la fusión de información multisensorial". Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/6285.

Texto completo
Resumen
Los primeros robots operaban en entornos especialmente preparados para ellos. Cada componente de su espacio de trabajo se encontraba situado en una posición y orientación predefinidas, de modo que el robot conocía a priori y con exactitud el escenario donde se encontraba. En la actualidad muchas de las aplicaciones requieren que los robots tengan rasgos de autonomía como son la capacidad para identificar mediante sus sensores las características que tiene el entorno, la capacidad para autolocalizarse dentro del mismo, y la capacidad para navegar por su espacio de trabajo respondiendo a las variaciones temporales que vayan surgiendo. A pesar de que los resultados obtenidos en el campo de la construcción de mapas y auto-localización de robot móviles son abundantes y muy significativos, aun existen problemas por resolver sobre todo los vinculados al uso de sensores imprecisos y de bajo costo, ya que la información obtenida con estos sensores resulta poco fiable al momento de integrarla a las distintas aplicaciones en este tipo de sistemas. Este trabajo se centra en el estudio y modelado de sensores de bajo costo de uso típico en robótica móvil (codificadores rotativos, sensores de ultrasonidos e infrarrojos, compás magnético), y de cómo pueden ser utilizados en labores de auto-localización y representación del entorno. Mediante la fusión de datos provenientes de sensores de bajo coste se logra que un robot móvil se auto localice adecuadamente de forma que pueda navegar confiablemente en entornos estructurados. Para probar y evaluar off-line los distintos mecanismos de fusión y filtrado propuestos, a lo largo de esta tesis se desarrollan modelos sensoriales así como un pseudo código para la simulación de la operación de estos sensores en un robot real. Igualmente, en esta tesis se formulan los procedimientos y se elabora el software que se insertará en un robot real para que éste ejecute las acciones de control de navegación, de adquisición y filtrado de datos sensoriales, y de fusión pertinente a la localización y el mapeado en su entorno de operación.
Navarro García, DA. (2009). Contribución a la autolocalización de robots móviles basada en la fusión de información multisensorial [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6285
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Gracia, Morán Joaquín. "Validación por inyección de fallos en VHDL de la arquitectura TTA". Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7526.

Texto completo
Resumen
La inyección de fallos es una técnica utilizada para la validación experimental de Sistemas Tolerantes a Fallos. Se distinguen tres grandes categorías: inyección de fallos física (denominada también physical fault injection o hardware implemented fault injection), inyección de fallos implementada por software (en inglés software implemented fault injection) e inyección de fallos basada en simulación. Una de las que más auge está teniendo últimamente es la inyección de fallos basada en simulación, y en particular la inyección de fallos basada en VHDL. Las razones del uso de este lenguaje se pueden resumir en: " Es un lenguaje estándar ampliamente utilizado en el diseño digital actual. " Permite describir el sistema en distintos niveles de abstracción. " Algunos elementos de su semántica pueden ser utilizados en la inyección de fallos. Para realizar la inyección de fallos basada en VHDL, diferentes autores han propuesto tres tipos de técnicas. La primera está basada en la utilización de los comandos del simulador para modificar los valores de las señales y variables del modelo. La segunda se basa en la modificación del código, insertando perturbadores en el modelo o creando mutantes de componentes ya existentes. La tercera técnica se basa en la ampliación de los tipos del lenguaje y en la modificación de las funciones del simulador VHDL. Actualmente, ha surgido otra tendencia de la inyección de fallos basada en VHDL, denominada genéricamente emulación de fallos. La emulación añade ciertos componentes al modelo (inyectores, que suelen ser perturbadores o mutantes, disparadores de la inyección, recolectores de datos, etc.). El modelo junto con los nuevos componentes son sintetizados en una FPGA, que es donde se realiza la inyección. Con la introducción cada vez mayor de sistemas tolerantes a fallos en aplicaciones críticas, su validación se está convirtiendo en uno de los puntos clave para su uso.
Gracia Morán, J. (2004). Validación por inyección de fallos en VHDL de la arquitectura TTA [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7526
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Romero, Llop Roberto. "Especificación OWL de una ontología para teleeducación en WEB semántica". Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/1828.

Texto completo
Resumen
Debido al gran desarrollo de la World Wide Web, tanto en cantidad de contenidos y nodos como en velocidades de acceso, aparecen por parte de la comunidad científico-técnica propuestas de utilización de la misma con objetivos más ambiciosos que la mera descarga de ficheros para ser presentados al usuario. Con esa finalidad se desarrolla la Web Semántica, sistema que pretende introducir información entendible por Agentes Inteligentes, permitiendo de este modo que estos Agentes puedan aumentar sus bases de conocimiento y realizar inferencias que faciliten procesos realizados actualmente de forma manual por los usuarios. De esta forma surgen los lenguajes ontológicos para la web, y en concreto el lenguaje recomendado por la World Wide Web Consortium (W3C) denominado Web Ontology Language (OWL), así como razonadores relacionados como FACT++, Racer y Pellet. Además, con el objetivo de aprovechar el potencial de la web, se han ido generando gran cantidad de contenidos educativos, que debido a los altos costes de producción generan una necesidad de potenciar la reutilización de dichos contenidos. Aparece en este caso el concepto de objeto educativo, que es susceptible de ser reaprovechado para otras experiencias de aprendizaje, con alguna modificación o sin modificación alguna, generando la denominada interoperabilidad de objetos educativos. El presente trabajo pretende potenciar esta interoperabilidad de objetos educativos. Para ello se especifica una ontología completa para teleeducación, basada en la lógica descriptiva y desarrollada en el lenguaje OWL, para que pueda ser utilizada por medio de la Web Semántica. Se estudian, desarrollan e implementan dentro de esta ontología conceptos relacionados con la interacción de los distintos agentes que intervienen en una experiencia de aprendizaje a través de la web. La ontología presentada va además acompañada de una especificación de arquitectura de pares o Peer to Peer (P2P) basada en las arquitecturas de tablas de búsqueda distribuidas (DHTs), que denominaremos DHT Semántica. La DHT Semántica está diseñada para permitir la explotación por parte de Agentes Inteligentes de la ontología especificada, con una alta tolerancia a fallos en nodos de la arquitectura. Estos Agentes asisten en la búsqueda de objetos educativos más allá de la búsqueda por palabras claves. Finalmente, tanto la ontología como la arquitectura se validan utilizando un conjunto de experiencias educativas on-line reales.
Romero Llop, R. (2007). Especificación OWL de una ontología para teleeducación en WEB semántica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1828
Palancia
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Banús, Alsina Josep María. "Planificación global en sistemas multiprocesador de tiempo real". Doctoral thesis, Universitat Politècnica de Catalunya, 2008. http://hdl.handle.net/10803/6030.

Texto completo
Resumen
Esta tesis afronta el problema de la planificación de sistemas de tiempo real utilizando sistemas multiprocesador con memoria compartida. Según laliteratura este problema es NP-Hard. En las aplicaciones de sistemas de tiempo real se imponen unos plazos temporales para la realización de las tareas. Así, lo importante es obtener los resultados a tiempo y no lo es tanto el obtener un rendimiento alto en promedio. La solución al problematradicionalmente ha consistido en repartir las tareas en tiempo de diseño y tratar a losprocesadores como monoprocesadores aislados. La solución alternativa, la planificación global del multiprocesador, tiene una teoría poco desarrollada. Los límites de utilización del sistema con garantías para losplazos son muy bajos, del orden del 50%, y la capacidad sobrante difícilmente se puede usar para dar servicio a las tareas aperiódicas. Así, el objetivoprincipal de la tesis es la planificación global con garantías de los plazos y con buen servicio a las tareas aperiódicas, llegando a usar el 100% de la capacidad de proceso.
Primero se estudiaron cuatro posibilidades de distribución: estática o dinámica según las tareas, periódicas o aperiódicas. Para ello se trató el servicioa las tareas aperiódicas con dos métodos distintos: con servidores y sin servidores. En las distribuciones dinámicas, con el método de los servidoresse encontraron dificultades en su dimensionado y en las garantías de los plazos. Los métodos sin servidores probados fueron los planificadores Slack Stealing y Total Bandwidth. Ambos solo se pudieron adaptar para la planificación estática de las tareas periódicas. Las simulaciones mostraron que laplanificación local con Slack Stealing y un distribuidor de las tareas aperiódicas tipo Next-Fit proporcionan los mejores tiempos de respuesta medios para las tareas aperiódicas. Sin embargo, cuando las cargas son muy altas su tiempo de respuesta se dispara. Todos los métodos ensayados hasta elmomento quedaron desestimados para la planificación global.
En segundo lugar se adaptó a la planificación global el algoritmo Dual Priority. Primero se analizaron sus características en monoprocesadores y se realizaron diversas mejoras. El algoritmo depende del cálculo off-line del peor tiempo de respuesta de las tareas periódicas y la fórmula paracalcularlos en monoprocesadores no es válida para multiprocesadores. Así, se analizaron tres métodos para su cálculo: un método analítico, unmétodo con simulación y un método con un algoritmo. El primero obtiene valores demasiado pesimistas; el segundo obtiene valores más ajustados pero en ocasiones son demasiado optimistas; el tercero es un método aproximado y obtiene valores tanto optimistas como pesimistas. Así, estemétodo no garantiza los plazos y no se puede usar en sistemas de tiempo real estrictos. En sistemas laxos, con una monitorización on-liney un ajuste dinámico de las promociones, el número de plazos incumplidos es muy bajo y el tiempo de repuesta de las tareas aperiódicas es excelente.
Finalmente, se presenta una solución híbrida entre el repartimiento estático de las tareas periódicas y la planificación global. En tiempo de diseño, sereparten las tareas periódicas entre los procesadores y se calculan las promociones para la planificación local. En tiempo de ejecución las tareasperiódicas se pueden ejecutar en cualquier procesador hasta el instante de su promoción, instante en el que deben migrar a su procesador. Así segarantizan los plazos y se permite un cierto grado de balanceo dinámico de la carga. La flexibilidad conferida por las promociones de las tareas y el balanceo de la carga se utiliza para (i) admitir tareas periódicas que de otra forma no serian planificables, (ii) servir tareas aperiódicas y (iii) servirtareas aperiódicas con plazo o esporádicas. Para los tres casos se diseñaron y analizaron distintos métodos de distribución de las tareas periódicas en tiempo de diseño. También se diseño un método para reducir el número de migraciones. Las simulaciones mostraron que con este método se puedenconseguir cargas con solo tareas periódicas muy cercanas al 100%, lejos del 50% de la teoría de la planificación global. Las simulaciones con tareasaperiódicas mostraron que su tiempo de repuesta medio es muy bueno. Se diseño un test de aceptación de las tareas esporádicas, de forma que si una tarea es aceptada entonces su plazo queda garantizado. El porcentaje de aceptación obtenido en los experimentos fue superior al 80%.Finalmente, se diseñó un método de distribución de las tareas periódicas pre-rutime capaz de facilitar en tiempo de ejecución la aceptación de un alto porcentaje de tareas esporádicas y mantener un buen nivel de servicio medio para las tareas aperiódicas.
This thesis takes into consideration the problem of real-time systems scheduling using shared memory multiprocessor systems. According to the literature, this problem is NP-Hard. In real-time systems applications some time limits are imposed to tasks termination. Therefore, the really important thing is to get results on time and it is not so important to achieve high average performances. The solution to the problem traditionally has been to partition the tasks at design time and treat processors as isolated uniprocessors. The alternative solution, the global scheduling, has an undeveloped theory. The limit on the system utilization with deadlines guarantees is very low, around 50%, and spare capacity can hardly be used to service aperiodic tasks. Thus, the main goal of this thesis is to develop global scheduling techniques providing deadlines guarantees and achieving good service for aperiodic tasks, being able to use 100% of the processing capacity.
First of all, we explored four possibilities of distribution: static or dynamic depending on the tasks, periodic or aperiodic. We tried to schedule aperiodic tasks with two different methods: with servers and without servers. In dynamic distributions, with the method of servers were found difficulties in its size and guarantees for deadlines. The methods without servers were The Slack Stealing and The Total Bandwidth. Both were adapted only for scheduling the static case. The simulations showed that the local scheduling with Slack Stealing and an allocation of aperiodic tasks kind Next-Fit provides the best mean average response time for the aperiodic tasks. However, when the load is very high response time increases. All methods tested so far were dismissed for the global scheduling.
Secondly the Dual Priority algorithm was adapted to global scheduling. First we discussed its characteristics in uniprocessors and various improvements were made. The algorithm depends on the off-line calculation of the worst case response time for the task and the formula to compute them in uniprocessors is not valid for multiprocessors. We have analyzed three methods for its calculation: an analytical method, a simulation method and an algorithmic method. The former gets too pessimistic values, the second gets adjusted values but are sometimes too optimistic, and the third is a method that obtains approximate values. Thus, this method does not guarantee deadlines and may not be used in hard real-time systems. However, it is very suitable for soft real-time systems. In these systems, using an on-line monitoring and dynamic adjustment of promotions, the number of missed deadlines is very low and the response time of aperiodic tasks is excellent.
Finally, we present a hybrid solution between static task allocation and global scheduling. At design time, is performed the distribution of periodic tasks among processors and their promotions are calculated for local scheduling. At runtime, the task can be run on any processor until the moment of its promotion, when it has to migrate to its processor. This will ensure deadlines and allowing a certain degree of dynamic load balancing. The flexibility provided by task promotions and load balancing is used (i) to admit task that would otherwise not be scheduled, (ii) to serve aperiodic tasks and (iii) to serve aperiodic tasks with deadlines or sporadic tasks. For the three cases were designed and analyzed various methods of task distribution at design time. We also designed a method to reduce the number of migrations. The simulations showed that this method can achieve with only periodic task loads very close to 100%, far from the 50% of the global scheduling theory. The simulations showed that aperiodic tasks average response time is very good. We designed an acceptance test for sporadic tasks, hence, if a task is accepted then its deadline is guaranteed. The acceptance rate obtained in the experiments was over 80%. Finally, we devised a pre-rutime distribution method of periodic tasks that is able to provide at run time a high acceptance ratio for sporadic tasks and maintain a good level of service for aperiodic tasks
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Moncusí, Mercadé Maria Angels. "Ahorro Energético en la Planificación de Sistemas en Tiempo Real". Doctoral thesis, Universitat Politècnica de Catalunya, 2005. http://hdl.handle.net/10803/5990.

Texto completo
Resumen
La evolución de los procesadores siempre ha consistido en ir aumentando el rendimiento de estos, fijando como medida de este aumento de rendimiento la velocidad de proceso en la ejecución de las distintas aplicaciones. Sin embargo esta mayor velocidad implica también un mayor consumo energético. En la era de la informática móvil, un mayor consumo energético comporta el uso de mayores baterías y una disminución del tiempo útil de trabajo de estas. A su vez, el usuario común de esta informática móvil, puede que no necesita una mayor velocidad de proceso, puesto que la limitación de velocidad de las aplicaciones más comunes que usará, aplicaciones multimedia, procesadores de texto, viene impuesta por cualidades físicas (velocidad de mecanografía, frecuencia de visualización en pantalla, frecuencia de emisión del sonido,..). En estos casos, por más rápido que sea el procesador, la aplicación no puede ejecutarse a mayor velocidad, resultando en un mayor consumo energético pero sin la obtención de mejores resultados.
En los sistemas de tiempo real, estas restricciones en la velocidad del procesador también vienen impuestas por las características físicas del medio, por ejemplo, la frecuencia de muestreo de un sensor de temperatura, debe ser la necesaria, de nada sirve que se tomen medidas al doble de su frecuencia, puesto que la temperatura no cambiará tan rápidamente.
Para evitar el problema de sobredimensionado de la velocidad del procesador que requiere a su vez, de un mayor consumo energético, en la última década, el estudio del rendimiento de los procesadores (velocidad del procesador) se ha unido al estudio del consumo energético y de la disipación del calor. De manera que ya no puede haber evolución únicamente a nivel de velocidad del procesador sin tener en cuenta el consumo de este y la disipación de energía.
En el campo de la reducción energética se ha observado que la técnica de DVS (reducción dinámica de la velocidad del procesador junto con la reducción del voltaje suministrado) permite al algoritmo de planificación de las tareas ahorrar energía. Si observamos atentamente los algoritmos de planificación que se han usado en los entornos de tiempo real, observaremos la siguiente evolución temporal:
· Algoritmos de planificación cíclicos.
· Algoritmos de planificación en-línea para conjuntos de tareas periódicas independientes.
· Algoritmos de planificación en-línea para conjuntos de tareas periódicas independientes y para tareas aperiódicas y/o esporádicas
· Algoritmos de planificación en-línea para conjuntos de tareas no independientes entre si, es decir tareas con recursos compartidos y/o precedencias entre tareas.
· Algoritmos de planificación para arquitecturas multiprocesadores.
Una evolución parecida se ha producido en el estudio de los planificadores con ahorro energético, iniciando el estudio con la planificación estática y finalizando con los algoritmos de planificación dinámica, que ofrecen mayor flexibilidad a los programadores de las aplicaciones.
En la tesis, se sigue esta misma evolución, estudiando y proponiendo un algoritmo de planificación con ahorro energético para un sistema monoprocesador con tareas independientes. Suponiendo, inicialmente, correctos todos los parámetros de diseño del sistema (algoritmo PLMDP) para finalmente aplicar de manera automática una corrección a un posible sobredimensionado del WCET (algoritmo EPLDP). Estudiando las diferencias de ahorro energético que se obtienen con estos dos algoritmos, se ha constatado que a nivel energético es siempre favorable ejecutar a una velocidad de proceso intermedia en lugar de ejecutar a velocidades extremas (primero a muy poca velocidad, para después tener que ejecutar a velocidades más altas).
A continuación, añadimos a los planificadores anteriores la posibilidad de que las tareas puedan acceder a recursos compartidos entre estas. Implementando en los planificadores el protocolo de techo de prioridad. A pesar del uso de este protocolo, se puede observar que nuestros algoritmos continúan aportando ahorro energético, garantizando la planificabilidad de las tareas.
Para finalizar con los cambios en los planificadores, se ha añadido a todos los planificadores implementados, la posibilidad de tener precedencias entre las tareas y plazos globales entre una cadena de precedencias. En este punto se ha visto que la dificultad principal del algoritmo de planificación es el hecho de no saber con exactitud el instante de llegada de estas tareas, disminuyendo de esta manera la utilización del procesador que se puede planificar de una manera garantizada. A pesar de todo, observamos que los algoritmos de planificación PLMDP y EPLDP tienen un buen comportamiento en términos de planificación de tareas.
Para completar el estudio de la planificación, se ha realizado el estudio del tiempo de respuesta de las tareas aperiódicas junto al estudio del ahorro energético. En principio ambos conceptos están enfrentados, puesto que para obtener un tiempo de respuesta menor, debemos ejecutar la tarea a máxima velocidad, asegurando que en el procesador esté disponible a la llegada de las tareas. Y por el contrario, para tener ahorro energético debemos ejecutar a una velocidad reducida la mayor parte del tiempo.
Realizando un análisis global, se ha visto que los planificadores PLMDP y EPLDP, obtienen un buen rendimiento, siendo de fácil implementación y requiriendo al mismo tiempo poca cantidad de memoria para su funcionamiento. Sin embargo, todos los resultados obtenidos se han realizado bajo simulaciones con conjuntos de tareas reales y conjuntos de tareas sintéticos.
Las técnicas DVS y las modificaciones que se han realizado en los algoritmos de planificación para ahorro energético, son fácilmente aplicables a otros algoritmos de planificación, en concreto se podrían aplicar sin demasiada complicación a sistemas multiprocesadores con una planificación global de las tareas. Los resultados obtenidos con el algoritmo EPLDP demuestran que en las aplicaciones de tiempo real es energéticamente económico ejecutar a una velocidad media el máximo tiempo posible en lugar de ejecutar a mayor velocidad para después tener el procesador parado. Este resultado, junto con los resultados que reducen la corriente de fuga a base de agrupar los espacios libres del procesador, es fácilmente aplicable a los algoritmos de planificación, en los que las tareas pueden ejecutarse en cualquier procesador. De manera que las tareas se deben ejecutar a una velocidad lo más uniformemente posible para tener al procesador ocupado el máximo tiempo posible.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Más fuentes

Libros sobre el tema "330417 - Sistemas en tiempo real"

1

Fernández, Pedro Carlos. Sistemas hidrometeorológicos en tiempo real: Lluvias, tormentas y alerta hidrológica de Mendoza. Buenos Aires, Argentina]: Academia Nacional de Agronomía y Veterinaria, 1999.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Sistemas de Tiempo Real y Lenguajes de Programacion - 3b: Edicion. Pearson Educacion, 2005.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Serna Guarín, Leonardo, Luis Javier Morantes Guzmán y Edilson Delgado Trejos. Transferencia óptima de datos para el monitoreo y control remoto de sistemas en tiempo real. Instituto Tecnológico Metropolitano, 2015. http://dx.doi.org/10.22430/9789588743769.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Serrano, Leire, Enrique Onieva, Hugo Landaluce, Antonio D. Masegosa y Asier Moreno. ¿Cómo puede la inteligencia artificial reducir los accidentes de tráfico y evitar atascos? University of Deusto, 2020. http://dx.doi.org/10.18543/dsib-4(2020)-pp49-68.pdf.

Texto completo
Resumen
Los problemas persistentes relacionados con la congestión del tráfico, la seguridad vial y los problemas ambientales podrían resolverse si las personas, los vehículos, las infraestructuras y las empresas estuvieran conectadas en un ecosistema cooperativo. La creación de un ecosistema de este tipo ha sido clave en el proyecto TIMON de Horizonte 2020, donde es la base de referencia para la prestación de servicios de información relacionados con el tráfico y el transporte multimodal a los usuarios vulnerables de la red viaria y las personas responsables de la administración pública en materia de movilidad. El principal objetivo de TIMON es aumentar la seguridad, la sostenibilidad, la flexibilidad y la eficiencia de los sistemas de transporte por carretera aprovechando la comunicación cooperativa y procesando datos abiertos relacionados con la movilidad a través de una plataforma cooperativa abierta basada en la web y aplicación móvil desarrollada para ofrecer información y servicios a conductores, empresas y usuarios vulnerables de la red viaria en tiempo real. TIMON ha construido una comunidad grande y solida de más de 100 personas usuarias en la ciudad de Liubliana y ha beneficiado directamente su movilidad y transporte diarios en la ciudad, aumentando su seguridad, reduciendo las emisiones contaminantes y aminorando la congestión. TIMON ha contado con el apoyo de al menos 23 empresas proveedoras de servicios en Sistemas Inteligentes de Transporte (STI), 31 gestores de infraestructuras viarias y administradores de transporte urbano, y asociaciones de transporte, todos ellos pertenecientes al Comité de Usuarios del proyecto. El presente briefing pretende presentar los beneficios del sistema TIMON para optimizar la gestión del tráfico y las operaciones de la red de transporte urbano en las ciudades, apoyando directamente a las personas responsables del área de transporte en sus procesos de toma de decisiones para las operaciones de transporte. El informe también explica cómo se ha implementado la solución TIMON en las ciudades y los requisitos mínimos para que funcione.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "330417 - Sistemas en tiempo real"

1

Torres Gordillo, Juan Jesús, Víctor Hugo Perera Rodríguez y Carlos Hervás Gómez. "Innovación evaluativa con sistemas de respuesta inteligente: Uso de Socrative en Educación Superior". En Innovación e investigación sobre el aprendizaje ubicuo y móvil en la Educación Superior. Octaedro, 2019. http://dx.doi.org/10.36006/16145-06.

Texto completo
Resumen
La integración de la tecnología móvil en las instituciones educativas, y más específicamente en las aulas, se está llevando a cabo de forma gradual, siendo todavía una realidad emergente en la educación universitaria. En los últimos años, el uso de aplicaciones basadas en dispositivos móviles para promover el aprendizaje activo, y también para monitorear y evaluar el aprendizaje de los estudiantes en tiempo real, está despertando tal interés entre los docentes e investigadores que se están fomentando numerosas innovaciones en metodología de enseñanza. Este capítulo presenta una experiencia basada en el uso de Socrative en Educación Superior.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Bernal García, Ezequiel, Rosa M. Fernández-Cantí y Antoni Isalgué Buxeda. "Análisis de datos para el desarrollo de un sistema de control automático de embarcaciones en un área portuaria". En XLII JORNADAS DE AUTOMÁTICA : LIBRO DE ACTAS, 60–65. Servizo de Publicacións da UDC, 2021. http://dx.doi.org/10.17979/spudc.9788497498043.060.

Texto completo
Resumen
Según el último informe de la Agencia Europea de Seguridad Marítima (EMSA), un gran número de incidentes de navegación con víctimas se producen en instalaciones portuarias. Para minimizar el número de accidentes es necesario contar con algoritmos de control eficientes que permitan decidir acciones en tiempo real por parte del operador. Se presentan las principales fuentes de los datos que permiten un control efectivo del control portuario. Se discuten las ventajas e inconvenientes de los datos suministrados por los sistemas AIS y RADAR. A partir de los requerimientos de seguridad para evitar colisiones, se analizan los principales datos relacionados con la embarcación y su entorno que son relevantes para un algoritmo eficiente del control de tráfico en puertos.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Yandar-Lobon, Mario A. y Esteban Puerto Lara. "Vigilancia y seguridad con procesamiento de imágenes". En Industria 4.0: Desde la perspectiva organizacional, 65–84. Fondo Editorial Universitario Servando Garcés de la Universidad Politécnica Territorial de Falcón Alonso Gamero / Alianza de Investigadores Internacionales S.A.S., 2020. http://dx.doi.org/10.47212/industria4.0-5.

Texto completo
Resumen
Los conceptos de vigilancia y seguridad se han dado por sentado en las sociedades urbanas colombianas. La vigilancia, desde la perspectiva de la observación implica el conocer lo que pasa, mientras que la seguridad se asocia al cuidado de personas y bienes. Desde el punto de vista del sector en Colombia, ciertamente ha habido un auge creciente, no solo en la demanda de los servicios, sino de tecnología asociada, como cámaras de vigilancia de manera individual y en circuitos cerrados (CCTV), sistemas de alarmas, autenticación biométrica para control de acceso, entre otros. La industria 4.0 supone un impacto relevante en diversos aspectos de una vigilancia y seguridad, principalmente porque el sector demanda servicios 7x24 con altos niveles de confiabilidad, teniendo hoy por hoy la tendencia a automatizar cada vez más sus operaciones. En la actualidad, este sector registra mucha más información de la que es procesada y retroalimentada eficazmente para la toma de decisiones. El presente análisis tiene como objetivo principal el estudio de la incorporación de técnicas de reconocimiento de imágenes y procesamiento de video en tiempo real para aplicaciones relacionadas con la seguridad perimetral en diferentes lugares que presenten diferentes tipos de actividades. Estas técnicas involucran visión artificial por medio de redes neuronales convolucionales utilizando sistemas de computación paralela que permiten procesar cantidades significativas de imágenes con resultados precisos y en tiempo real que benefician la toma de decisiones en el momento de afrontar un problema de seguridad. Utilizando las técnicas mencionadas se evaluaron videos en algunos sitios públicos y mediante la detección de personas se obtuvieron ciertos parámetros como el flujo de personas. Finalmente, este tipo de parámetros pueden ser utilizados para evaluar la toma de decisiones brindando un apoyo a las empresas de vigilancia en zonas de se presentan altas concurrencias de personas y que pueden tener como consecuencia algunos incidentes de inseguridad.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Torres Gordillo, Juan Jesús, Víctor Hugo Perera Rodríguez y Carlos Hervás Gómez. "Gamificación con tecnología móvil en Educación Superior: evaluando los aprendizajes con Socrative". En Innovación e investigación sobre el aprendizaje ubicuo y móvil en la Educación Superior. Octaedro, 2019. http://dx.doi.org/10.36006/16145-13.

Texto completo
Resumen
En los últimos años, el interés que está suscitando entre los docentes el uso de aplicaciones basadas en dispositivos móviles para promover el aprendizaje activo e interactivo, pero también para conocer y evaluar en tiempo real los aprendizajes de los alumnos, está impulsando numerosas innovaciones en metodología docente. Las nuevas experiencias educativas auspiciadas por el modelo BYOD (Bring Your Own Devices), práctica consistente en que los alumnos traigan sus propios dispositivos móviles al lugar de aprendizaje, no solo están alentando el empleo de metodologías creativas, sino que además están cubriendo muchas de las necesidades que vienen demandando los estudiantes de hoy. En el ámbito universitario, este fenómeno está despertando un nuevo enfoque metodológico basado en el empleo de técnicas de juego con tecnología móvil para promover atractivas experiencias de aprendizaje. Actualmente, los sistemas de respuesta inteligente apoyados por servicios en línea se han popularizado y están siendo reconocidos como uno de los recursos con mayor potencial para trabajar el aprendizaje activo e interactivo en el aula. Estos sistemas están influyendo positivamente en aspectos como las relaciones entre profesor y estudiantes optimizando las comunicaciones didácticas en el aula, permitiendo que los docentes puedan elaborar un feedback inmediato para el alumno a partir de información cualitativa e informes estadísticos. Este capítulo presenta una experiencia de aprendizaje gamificado con la aplicación Socrative, basada en tecnología móvil.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "330417 - Sistemas en tiempo real"

1

Santamaría-Vázquez, Eduardo, Víctor Martínez-Cagigal, Javier Gomez-Pilar y Roberto Hornero. "Control asíncrono de sistemas BCI basados en ERP mediante la detección de potenciales evocados visuales de estado estable provocados por los estímulos periféricos del paradigma oddball." En 11 Simposio CEA de Bioingeniería. València: Editorial Universitat Politècnica de València, 2019. http://dx.doi.org/10.4995/ceabioing.2019.10022.

Texto completo
Resumen
Los sistemas Brain-Computer Interface (BCI) permiten la comunicación en tiempo real entre el cerebro y el entorno midiendo la actividad neuronal, sin la necesidad de que intervengan músculos o nervios periféricos. En la práctica, normalmente se emplea el electroencefalograma (EEG) para registrar la actividad cerebral, debido a que se realiza con un equipo portable, no invasivo y de bajo coste en comparación con otras técnicas disponibles. Una vez adquirida la señal EEG, esta es analizada en tiempo real por un software que determina las intenciones del usuario y las traduce en comandos de la aplicación, proporcionando una realimentación visual o auditiva. En concreto, los sistemas BCI basados en potenciales relacionados con eventos (event related potentials, ERP) utilizan el llamado paradigma oddball. Este paradigma presenta una matriz de comandos, cuyas filas y columnas se iluminan de manera secuencial. Para seleccionar un comando, el usuario debe mirar a fijamente a la celda correspondiente de la matriz. Los estímulos visuales, percibidos con la región central de su campo visual, provocan un ERP en la señal de EEG. Posteriormente, el sistema determina el comando que quiere seleccionar el usuario mediante la detección de estos ERP. Actualmente, una de las mayores limitaciones de los sistemas BCI basados en ERP es que son inherentemente síncronos. La aplicación selecciona un comando después de un número predefinido de iluminaciones, aunque el usuario no esté atendiendo a los estímulos. Esta limitación restringe el uso de estos sistemas en la vida real, donde los usuarios deberían poder dejar de prestar atención a la aplicación para realizar otras tareas sin que se seleccionen comandos indeseados. Esta característica es especialmente importante en aplicaciones BCI enfocadas al aumento de la calidad de vida de personas con grave discapacidad, como navegadores web o sistemas de control de sillas de ruedas. Para resolver esta limitación, es necesario añadir al sistema un método que detecte en tiempo real si el usuario realmente quiere seleccionar un comando. En este estudio presentamos un novedoso método de asincronía para detectar en tiempo real el estado de control del usuario en los sistemas BCI basados en EPR. Con este objetivo, el sistema detecta los potenciales evocados visuales de estado estable (steady-state visual evoked potentials, SSVEP) provocados por los estímulos periféricos del paradigma oddball. Estas ondas son la respuesta oscilatoria que aparece en la señal de EEG cuando se recibe una estimulación repetitiva a una frecuencia constante. Las iluminaciones periféricas del paradigma oddball provocan un SSVEP a la frecuencia de estimulación, que aparece únicamente cuando el usuario está mirando a la matriz. Por tanto, la detección de esta componente permite determinar si el usuario quiere seleccionar un comando o no. El método propuesto ha sido validado de manera offline con 5 sujetos sanos, alcanzando una precisión media en la detección del estado de control del usuario del 99.7% con 15 secuencias de estimulación. Estos resultados sugieren que esta metodología permite un control asíncrono fiable del sistema BCI, lo que es de gran utilidad en aplicaciones para la mejora de la calidad de las personas con grave discapacidad.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Page, Álvaro, Nicolás Jara, José Luis Abad y José Navarro. "Validación de los marcadores ArUco para el análisis de movimientos humanos". En 11 Simposio CEA de Bioingeniería. València: Editorial Universitat Politècnica de València, 2019. http://dx.doi.org/10.4995/ceabioing.2019.10029.

Texto completo
Resumen
En los últimos años se han publicado numerosos trabajos sobre el empleo de técnicas de bajo coste para el análisis de movimientos humanos, especialmente mediante sensores inerciales [1]. Menos esfuerzos se han realizado en la línea de otras técnicas basadas en video-análisis, donde la mayoría de trabajos se refieren al análisis de movimientos planos con una cámara [2]. Sin embargo, en el campo de la robótica se vienen usando desde hace tiempo sistemas de posicionado mediante marcadores de realidad aumentada (AR). Estos sistemas permiten analizar, en tiempo real y con una única cámara de video, la posición y orientación de objetos con precisión suficiente para su uso en muchas aplicaciones biomecánicas [3]. En particular, la librería ARUCO [4] permite analizar movimientos de varios marcadores de manera rápida y eficiente, lo que permite aplicarlos al análisis de varios segmentos corporales en tiempo real. En este trabajo se analiza la precisión de los marcadores ARUCO en la medida de ángulos y desplazamientos, comparando los movimientos medidos con el sistema con dos técnicas de precisión: encoders de desplazamientos lineales y giros, para las medidas estáticas, y un sistema de videofotogrametría de precisión, para las medidas en movimiento. Los resultados muestran que los marcadores pueden medir desplazamientos con errores estándar del orden de 1 mm en los desplazamientos paralelos al plano de la cámara y del orden de 3 mm en profundidad. Los errores angulares son inferiores a 0.5º en los giros en el plano de la cámara y del orden de 1º en los giros alrededor de ejes paralelos a dicho plano. Estos errores son mucho menores que los asociados a la variabilidad humana, por lo que sería posible utilizar este tipo de marcadores para numerosas aplicaciones biomecánicas. REFERENCIAS [1] Picerno, P. (2017). 25 years of lower limb joint kinematics by using inertial and magnetic sensors: a review of methodological approaches. Gait &amp; Posture, 51, 239-246. [2] Otín, C. et al.(2016). Análisis de habilidades deportivas mediante el uso del software Kinovea. In Simbiosis del aprendizaje con las tecnologías: experiencias innovadoras en el ámbito hispano (pp. 125-134). Prensas Universitarias de Zaragoza. [3] Parrilla, E. et al. (2013). Ankle 3D-kinematics measurement by using a single camera and AR-markers. Footwear Science, 5(sup1), S73-S74. [4] Munoz-Salinas, R. (2012). ArUco: a minimal library for augmented reality applications based on opencv. Universidad de Córdoba.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Suarez, Alvaro, Tatiana Gualotuña, Elsa Macias, Rodrigo Fonseca y Andrés Ribadaneira. "Mitigando Efectos Adversos de Interrupciones del Servicio de Video-vigilancia del Hogar en Clientes WiFi inalámbricos". En XIII Jornadas de Ingenieria Telematica - JITEL2017. Valencia: Universitat Politècnica València, 2017. http://dx.doi.org/10.4995/jitel2017.2017.6591.

Texto completo
Resumen
Actualmente los sistemas de videovigilancia en el Hogar se pueden combinar con sensores para formar un sistema de muy bajo coste y fácil manejo por parte del usuario final. Un componente importante en este sistema es el servidor de video streaming en tiempo real a clientes Web que usan Wireless Fidelity. El servidor se puede instalar en open hardware como el Raspberry Pi y se puede ayudar de sensores arduino para detectar alarmas de intrusión o condiciones domóticas adversas en el Hogar. Sin embargo, el Wireless Fidelity tiene conocidos problemas que provoca interrupciones esporádicas e impredecibles del servicio de video y de poca duración que provocan la pérdida de frames de video clave para observar el estado del hogar en un momento dado, mientras el cliente se mueve (después de recibir una alarma). Mitigar los efectos adversos de estas interrupciones es una tarea complicada que hemos trabajado durante años. La novedad es que ahora construimos u sistema de open hardware embebida y de bajo coste (con utilidad práctica a los ciudadanos), y software libre íntegramente basado en servicios Web que es interoperable y basado en ontologías (para incluir decisiones sofisticadas, smart, de reconectar el servicio interrumpido). El elevado valor de parámetros de calidad de experiencia de usuario avalan los buenos resutlados alcanzados.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Vidal Meló, Anna, Francisco J. Boigues y Vicente D. Estruch. "Prácticas de Matemáticas 2: de la clase tradicional a la clase inversa". En IN-RED 2017: III Congreso Nacional de Innovación Educativa y Docencia en Red. Valencia: Universitat Politècnica València, 2017. http://dx.doi.org/10.4995/inred2017.2017.6841.

Texto completo
Resumen
Haciendo honor a Confucio cuando dijo “Me lo contaron y lo olvidé, lo vi y lo entendí, lo hice y lo aprendí”, y gracias a los esfuerzos de la Universitat Politècnica de València por potenciar las metodologías activas como punto de partida en la construcción de los aprendizajes, el Flipped Teaching o clase inversa está tomando una especial relevancia en nuestras asignaturas, dado que da gran importancia al trabajo que comúnmente se hacía en casa, como era la resolución de problemas, y que ahora se aborda en el aula, donde el papel del profesor es el de orientador más que de transmisor de conocimientos. En esta metodología se rebaja el protagonismo del docente para hacer más énfasis en el del alumno y su aprendizaje. Los estudiantes pueden preparar la teoría en casa con anterioridad, aprovechando la clase presencial para realizar actividades más prácticas, trabajos en grupo y aclarar las dudas que les vayan surgiendo en la resolución de problemas en tiempo real, a través de la colaboración con sus compañeros de equipo junto con las orientaciones del profesor, constituyendo todo este proceso una parte muy significativa en su aprendizaje. En este trabajo, describiremos la experiencia llevada a cabo para invertir la clase en la asignatura Matemáticas 2 del primer año del Grado en Ingeniería de Sistemas de Telecomunicación, Sonido e Imagen, resultado de dos proyectos de innovación educativa. Palabras clave: Flipped Teaching, metodologías activas, trabajo en grupo, Matemáticas.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Torrecilla Patiño, Elia. "El fotógrafo como encarnación del flâneur: del “daguerrotipo andante” al phoneur en el espacio híbrido ." En I Congreso Internacional sobre Fotografia: Nuevas propuestas en Investigacion y Docencia de la Fotografia. Valencia: Universitat Politècnica València, 2017. http://dx.doi.org/10.4995/cifo17.2017.6633.

Texto completo
Resumen
Partiendo de la metáfora fotográfica empleada por Fournel (1857:268) en la que describe la figura del flâneur como “daguerrotipo andante”, se propone una actualización del fotógrafo encarnado en el prototipo de paseante moderno, desde su nacimiento en el París del siglo XIX hasta el espacio híbrido actual. El daguerrotipo, que requería un proceso de largos tiempos de exposición que influía en la quietud de los propios modelos para la obtención de una obra única, contrasta con la fotografía actual, mucho más “móvil” y múltiple que entonces. El fotógrafo recorre las calles acompañado de su cámara fotográfica en busca del acontecimiento urbano. Haciendo uso de la tecnología, registra sus impresiones ante la multiplicidad de estímulos que se producen en la metrópolis, y precisamente porque la fotografía es un arte propio de aquellos que se mueven, que caminan, al fotógrafo se le ha relacionado en numerosas ocasiones a la figura del flâneur, figura paradigmática de la experiencia moderna. En palabras de Susan Sontag (2005:55), “el fotógrafo es una versión armada del paseante solitario que registra, acecha y navega por el infierno urbano”. La ciudad es un cuerpo en continuo cambio formado por múltiples capas que son experimentadas, en su mayoría, a través del sentido de la vista, aunque en la deambulación, todos los sentidos se activan para apropiarse de la ciudad y resignificarla. En El pintor de la vida moderna Baudelaire (1840) ofrece un retrato del flâneur que es descrito por el propio poeta como una especie de hombre-ojo, donde el ojo es una cámara que registra todo lo que observa a través de su ojo-lente. En este sentido, la metáfora del flâneur como “daguerrotipo andante” hace visible la pulsión de convertir el ojo en el centro de la civilización moderna, además de las propias similitudes que existen entre el ojo y la cámara, ambos, sistemas capaces de producir imágenes reales. En la actualidad, la incorporación de las cámaras fotográficas en los teléfonos móviles, hace todavía más evidente la extensión del ojo como cámara. El flâneur-fotógrafo tiene ahora la posibilidad de capturar todo aquello que sucede a su alrededor, con la mirada fija en la pantalla de su dispositivo mientras su cuerpo se mueve callejeando. Si la experiencia que el flâneur moderno obtenía de la ciudad era una amalgama de estímulos que producía un estado narcotizante, el actual, que deambula por el espacio híbrido, experimenta una sensación caleidoscópica derivada de la sobreestimulación que proviene tanto desde la esfera física como de la digital. De esta manera, haciendo uso del teléfono móvil, registra cada instante a través de la cámara fotográfica y lo hace público compartiendo instantáneas urbanas en tiempo real. Un paseante híbrido prolongado por la tecnología (McLuhan, 1996), un flâneur que, retomando la propuesta de Robert Luke (2001), deviene phoneur, esta vez actualizado en una figura más móvil y en una versión posmoderna: un cronista y fotógrafo de la ciudad híbrida que muestra el acontecimiento urbano a través de unas fotografías que sirven como mapas y se convierten en pantallas, transformando al mundo en una especie de imagen, en un contexto de escenas o situaciones (Flusser, 2009). Siguiendo estas premisas, se realiza un enfoque de la figura del fotógrafo encarnado en flâneur, con el objetivo de indagar en la práctica fotográfica (móvil) y su relación con el caminar como experiencia estética.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía