To see the other types of publications on this topic, follow the link: Detector de plagio.

Dissertations / Theses on the topic 'Detector de plagio'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 32 dissertations / theses for your research on the topic 'Detector de plagio.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Oberreuter, Gallardo Gabriel Ignacio León. "Diseño e implementación de una técnica para la detección intrínseca de plagio en documentos digitales." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/114468.

Full text
Abstract:
Magíster en Gestión de Operaciones
En este trabajo se describe el problema de plagio en documentos digitales, y se exploran diferentes técnicas utilizadas para detectar tales casos de copia haciendo uso de teoría de recuperación de información y modelos de procesamiento de lenguaje natural. A continuación se propone un nuevo algoritmo, que analiza un texto usando características lingüísticas del mismo, donde se modela el estilo de escritura presente en busca de anomalías, donde estas últimas pueden indicar la participación de más de un autor. El objetivo principal de esta tesis es el estudio de la mencionada aproximación al problema, comparando su eficiencia y eficacia con otras técnicas existentes y evalu andolo en el marco de una competición internacional en el área. Mediante el acto de plagiar uno incurre en una falta ética donde el autor original no recibe los créditos correspondientes. En el caso de documentos escritos, uno puede incurrir en esta falta incluyendo fragmentos sin las citas adecuadas, utilizando las mismas ideas, o copiando el texto en su totalidad. Ahora bien, con el auge del uso de las tecnologias de información, como Internet, una gran cantidad de información de fácil acceso se encuentra disponible, siendo constantemente actualizada con generación de nuevos contenidos. Este fenómeno permite al plagio ser llevado a cabo con mayor facilidad y presenta una opción más tentativa a los estudiantes. La detección de dichos casos de plagio es compleja, principalmente debido a las prácticamentes infinitas fuentes de información. Es por ello que sistemas automáticos de detección son necesarios, mecanismos que se basan en técnicas de procesamiento de lenguaje natural y algoritmos de secuenciamiento. Estas herramientas son habitualmente desarrolladas sobre técnicas de detección de patrones comunes, de recuperación de información y en la teoría de la información. El en campo de la detección automática de plagio, la aproximación habitual involucra la comparasión de documentos. Un documento sospechoso es comparado con la o las posibles fuentes, apuntando a detectar los segmentos potencialmente plagiados y sus fuentes respectivas. Esta aproximación se denomina "detección externa de plagio", y mientras provee las fuentes de la copia, depende fuertemente de contar con las fuentes posibles a disposición. Este hecho es de vital importancia, donde la fuente ideal de búsqueda es la Web, pero tener acceso a ella en su totalidad se encuentra lejos de ser algo práctico. En años recientes una nueva forma de atacar el problema se ha introducido. Consisteen analizar el estilo de escritura presente en un documento, y determinar segmentos cuyo estilo sea considerablemente distinto del estilo general. Si se asume que un documento fue escrito por un autor, y que el estilo del autor permanece estable, variaciones importantes del mismo podrían indicar a otro autor involucrado. El objetivo principal de esta tesis fue diseñar e implementar un método que modele y cuantfique el estilo de escritura. El modelo fue construido para detectar desviaciones en el estilo de los documentos, otorgando un punto de partida para inferir casos de plagio. La propuesta se basa en la teoría de que diferentes autores poseen diferentes preferencias sobre el uso de palabras. En este sentido, la propuesta se basa en la cuantificación de las diferencias de las frecuencias de las palabras de todos los segmentos de un documento. Se evalúa el desempeño de la propuesta en un workshop y competición internacional del área, PAN@CLEF, donde se determina su eficacia y eficiencia. Los resultados son mixtos. Mientras que la propuesta alcanza los mejores resultados en las categorías de puntaje general y de precisión, obteniendo el primer lugar en la competición, los puntajes en general son bajos: una precisión de 0.3 refleja lo inmaduros que están aun los avances en el área. Por otro lado, se puede decir con seguridad que el uso de palabras representa una característica importante para analizar el estilo de escritura. Finalmente, los experimentos fueron realizados para el idioma Inglés, pero el método no utiliza catacterísticas propias del lenguaje, lo cual permite que el método sea estudiado con otros lenguajes.
APA, Harvard, Vancouver, ISO, and other styles
2

Sepúlveda, Rudolph Simón Pedro. "Sistema de búsqueda mediante ejemplo para detección de plagio en imágenes para la plataforma DOCODE." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/169976.

Full text
Abstract:
Memoria para optar al título de Ingeniero Civil Eléctrico
El presente trabajo muestra el diseño de un sistema buscador de plagio en imágenes para el proyecto DOCODE que es una plataforma web que busca solución a la problemática de plagio académico y que facilita el análisis de originalidad de documentos. Esta herramienta pertenece al centro de investigación y docencia de la Universidad de Chile Web Intelligence Centre (WIC). El desarrollo de este trabajo está enfocado a la búsqueda de imágenes por medio del sistema Content-based image retrieval (CBIR) dando énfasis en los resultados de medidas de desempeño, tiempo de ejecución y búsqueda en grandes bases de datos en función de los distintos métodos, como por ejemplo textura que usa herramientas de análisis de señales aplicadas para casos bi-dimensionales. Estos métodos permiten una descripción computacional de imágenes, con el objetivo de ser utilizados para un sistema de reconocimiento de patrones de la rama de la inteligencia computacional como lo es CBIR. El sistema de detección de plagio se somete a distintas exigencias para probar su óptimo funcionamiento. Para esto se describe la metodología y se desarrolla un procedimiento para simular situaciones de plagio en imágenes, donde además también se mide la eficiencia de la descripción y búsqueda. Los resultados son presentados en orden cronológico, para luego ser comentados y analizados en discusión de resultados. En esta sección se presentan las ideas principales durante el proceso de toma de decisiones para el diseño del sistema CBIR, justificando básicamente el proceso de selección de características.
APA, Harvard, Vancouver, ISO, and other styles
3

Oberreuter, Gallardo Gabriel Ignacio León. "Diseño e Implementación de una Técnica para la Detección de Plagio en Documentos Digitales." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103677.

Full text
Abstract:
Copiar o plagiar es cometer una falta ética al restar crédito al autor del trabajo original. En el caso de documentos escritos, se puede incurrir en copia mediante la inclusión de fragmentos sin citar la fuente original, plagiando ideas o mediante la copia completa del texto. Con el uso de tecnologías de información, como Internet, existe una gran cantidad de información de fácil acceso, por lo que el plagio es una opción de gran tentación para los estudiantes: el acto de copiar y pegar durante la realización de informes o trabajos en el ámbito educativo y de investigación es un tema cada vez más recurrente. La detección de dichos casos de copia es compleja, debido a la infinidad de fuentes disponibles. Debido a esto, herramientas de detección automática de plagio, diseñadas para grandes volúmenes de documentos, cobran mayor importancia. Estas herramientas se basan en la detección de patrones en común, en diferentes técnicas de recuperación de información y en la teoría de la información. Una posible solución es la detección automatizada de copia textual. Como hipótesis, se postula que si bien existen otros tipos de copia, por ejemplo la copia semántica, la copia textual representa una porción importante de lo plagiado, y su detección automatizada es posible y precisa. El objetivo principal de esta tesis es el desarrollar un método para la detección automatizada de plagio en documentos digitales, e implementar un prototipo para comprobar su efectividad. Este método debiese contar con tecnologías y conceptos de última generación para cumplir con su objetivo. Además, el sistema será evaluado mediante la participación en un taller y competencia internacional en detección de plagio. En este trabajo, se plantea el diseño e implementación de un método de detección automático de plagio textual, basado en el lenguaje de programación java. Este método se acoplará posteriormente al sistema DOCODE (de ahora en adelante arquitectura DOCODE) proyecto en el cual se desarrolla un producto a comercializar, cuyo éxito de ventas depende, en parte, de la eficacia y rendimiento de la estrategia de detección aquí propuesta. Los resultados indican que una búsqueda exhaustiva de plagio en un par de documentos puede obtener los mejores resultados en comparación a otros métodos. Pero este método tiene una desventaja; requiere el mayor tiempo computacional de todos los algoritmos probados. El método propuesto utiliza una aproximación y obtiene resultados aceptables; su F-measure es de 0.8 sobre los datos utilizados, comparado con 0.9 que el algoritmo exhaustivo obtiene, pero requiere considerablemente menos recursos computacionales (25 por ciento del tiempo total utilizado por el algoritmo exhaustivo).
APA, Harvard, Vancouver, ISO, and other styles
4

Urbano, Reyes Pablo Esteban. "Diseño y Construcción de la Interfaz para un Sistema Detector de Plagio en Documentos Digitales (DOCODE)." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103896.

Full text
Abstract:
Autorizado por el autor, pero con restricción para ser publicada a texto completo hasta el año 2011
La presente memoria se realiza con el objetivo de diseñar y construir un prototipo para la interfaz de un Sistema Detector de Plagio en Documentos Digitales, con criterios de usabilidad, de modo que sea aceptado por los diferentes usuarios del sistema. En diversos estudios hechos alrededor del mundo, se muestra que entre un 40% y un 60% declara haber usado textos de internet sin indicar su procedencia, lo que es definido como plagio. Esto se condice con la tendencia mundial enunciada en los mismos estudios, que indica que el uso de internet para los informes escolares y universitarios ha facilitado que suceda plagio, especialmente en informes digitales. Las causas de este fenómeno son diversas, destacando el fácil acceso a la información y la ignorancia respecto de buenas prácticas para el desarrollo de informes escritos. Considerando el problema expuesto, se plantea que el desarrollo de un Sistema Detector de Plagio en Documentos Digitales para el idioma español, que tenga criterios de usabilidad y que sea insertado de manera adecuada en el proceso de asignación y entrega de informes escritos, será usado por los diferentes actores del proceso de modo de disminuir la ocurrencia del plagio, facilitando a los profesores la detección de éste y desincentivando la copia en los estudiantes. En la actualidad existen sistemas detectores de plagio, la mayoría de ellos diseñados para el idioma inglés, y enfocados en la detección de la copia textual. Lo anterior provoca que estos sistemas ignoren las complejidades del idioma español y no consideren otros tipos de plagio, como el que sucede al usar sinónimos o al cambiar el orden de las palabras. Basándose en la observación de los sistemas actuales y del proceso a intervenir, se diseña un sistema donde diferentes usuarios pueden acceder a informes de copia predeterminados. Se construye un prototipo de las interfaces que utilizarán los profesores y se aplica un Test de Usabilidad para evaluar la herramienta. En el test de usabilidad se encuentra que el 100% de los participantes se declara satisfecho con la herramienta, y se concluye que, si bien el prototipo es altamente usable, en especial por su facilidad de aprendizaje, existen espacios para mejorarlo. Para esto, se proponen cambios en la usabilidad y en el proceso del sistema, orientados a la simplificación de la herramienta. Se concluye que es mejor un sistema que sea independiente de cada establecimiento y enfocado principalmente en los Profesores, no siendo necesario levantar toda la información de cada colegio, centrándose en quiénes serán los usuarios del sistema y, al mismo tiempo, potenciales clientes. Así, se facilita que el sistema cumpla su principal objetivo: la detección de plagio.
APA, Harvard, Vancouver, ISO, and other styles
5

Soriano, Bruscher María Paz. "Plan de Negocios para una Empresa de Servicio de Detección de Plagio en Documentos Digitales para el Sistema Educacional Chileno." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/102745.

Full text
Abstract:
El objetivo general de la presente tesis es desarrollar y proponer un Plan de Negocio El objetivo general de la presente tesis es desarrollar y proponer un Plan de Negocio para una empresa que ofrezca el “Servicio de Detección de Plagio” para el sector Educacional Chileno. Investigaciones realizadas entre los años 2003 al 2008, por diferentes Universidades, confirman un incremento gradual y sistemático del plagio de documentos digitales. El Web Intelligence Research Center del Departamento de Ingeniería Industrial, en respuesta a estos y otros antecedentes, desarrolló una herramienta denominada DoCoDE que permite detectar si un documento digital en español es original, comparando sus textos con fuentes en la Web y con bases documentales propietarias. Por otra parte, a nivel mundial, existen múltiples empresas que prestan el servicio de detección de copia para el sector educacional secundario y terciario. La realidad chilena es diferente: No cuenta con proveedores para la detección de plagio académico, de hecho sólo una institución de educación superior declara ser usuaria de un servicio de estas características, presentándose una oportunidad clara de negocio para DoCoDe. La Hipótesis de esta tesis formula que es posible diseñar un Plan de Negocios que le permita a DoCoDe Ltda. fundamentar la viabilidad de su negocio frente a futuros socios, en diferentes situaciones comerciales, logrando resultados económicos rentables. El Plan de Negocio permitirá a la empresa asumir los desafíos de a) construir una estrategia de negocio ii) evaluarla iii) implementarla iv) refinarla, etc en función del input de los clientes, de las novedades tecnológicas de construcción de construir una estrategia de negocio, evaluarla, Las cifras recogidas en esta investigación indican que un 40% de los potenciales clientes conoce la existencia de este tipo de software, el 73% definitivamente lo utilizaría, el 48% lo considera un servicio necesario y el 60% de los encuestados estaría dispuesto a pagar por usar este tipo de servicios. Durante la tesis se determinó que: i) La oferta del servicio es incipiente, sólo un proveedor internacional y ningún proveedor nacional ii) Existen potenciales clientes con disposición a pagar un fee mensual de 4,66 UF/mensual, iii) El mercado potencial es de un mínimo de 102 instituciones educacionales en Chile. iv) Directores y Profesores consideran el servicio una buena y muy necesaria iniciativa, con un 40% de desconocimiento del servicio, del software, sus usos y aplicaciones. v) Hoy en dia, por la poca presencia de proveedores extranjeros se presume que no hay interés por el mercado chileno, y tampoco existe presencia en los países vecinos. vi) Las condiciones tecnológicas son propicias para el desarrollo y upgrade del producto, permiten además, en el corto plazo, incorporar nuevas funcionalidades pagadas, aumentando la oferta según requerimientos del cliente. vii) El Plan de Negocio diseñado le permite a la empresa, fundamentar la viabilidad del negocio y su factibilidad comercial. En consideración a lo anterior es posible señalar que existe un mercado potencial para el servicio ofrecido por DoCoDe, el cual no solo abarca la educación, sino que también otros sectores de la economía y nuevas líneas de negocio.
APA, Harvard, Vancouver, ISO, and other styles
6

Lambert, Alegría María José. "Estrategia de marketing, diseño y tarificación de un servicio asociado a la herramienta tecnológica de detección de plagio en documentos digitales provisto por DOCODE." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/113373.

Full text
Abstract:
Ingeniero Civil Industrial
La educación chilena actual presenta una alta tendencia al plagio por parte de los alumnos debido al uso de Internet como fuente principal de acceso a la información. En este contexto, docentes y alumnos del DII de la Universidad de Chile, desarrollaron una herramienta tecnológica de detección de originalidad en documentos digitales llamado DOCODE. Hoy en día, las funcionalidades básicas de la herramienta están bien definidas y existe consenso respecto a su aporte en la educación chilena. Sin embargo, falta claridad sobre cómo la herramienta ayudaría a este propósito y el precio que estarían dispuestos a pagar los clientes. El objetivo del presente Trabajo de Título es diseñar y tarificar un servicio asociado a la herramienta tecnológica DOCODE, de modo tal de agregar valor a un segmento de clientes en el mercado educacional que esté dispuesto a pagar por él. Para ello, se realizó una investigación de mercado de dos etapas en la Región Metropolitana: la primera, un estudio cualitativo para generar hipótesis sobre los objetivos planteados y la segunda, una investigación cuantitativa para validar los supuestos generados y tomar decisiones concluyentes. Como resultado, se detectaron ocho segmentos en el mercado educacional chileno pertenecientes a educación superior y media. Debido a su potencial atractivo, se seleccionó al segmento objetivo de DOCODE, correspondiente a facultades humanistas y no humanistas con requerimientos de revisión de originalidad, pertenecientes a universidades de investigación y privadas selectivas. Según ello, se estableció que el beneficio buscado por estas instituciones es aquel que estimule el desarrollo de las habilidades cognitivas de los alumnos. A partir de lo anterior se desarrolló el concepto de producto para DOCODE y los requerimientos necesarios a incorporar a la versión actual para comercializarlo. Además, debido al desconocimiento entre los clientes respecto de otras herramientas similares, se plantea posicionar a DOCODE como un servicio perteneciente a una nueva categoría llamada detector de originalidad en documentos digitales. Se define que la mejor estrategia de precios corresponde a una de penetración con un precio de $2.300 anual por alumno, considerando revisiones ilimitadas. Sin embargo, se plantea la necesidad de diseñar a futuro modalidades que incluyan también revisiones limitadas de documentos, con el fin de capturar el mayor excedente de los compradores. Finalmente, se concluye que sí existe un segmento dispuesto a pagar por el servicio de detección de originalidad propuesto en el presente trabajo. Por lo tanto, si se incorporan las recomendaciones entregadas en el diseño de DOCODE, se logra cumplir con las expectativas de los clientes y usuarios, y, además, se realizan los esfuerzos comunicacionales y de ventas adecuadas, sería posible alcanzar ingresos anuales de $297.226.700.
APA, Harvard, Vancouver, ISO, and other styles
7

Rivas, Pizarro Natalia. "Diseño y Construcción de un Plan de Negocios como Estrategia de Levantamiento de Capitales para la Etapa de Comercialización de DOCODE." Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104370.

Full text
Abstract:
No autorizada por el autor para ser publicada a texto completo
DOcument COpy DEtector, DOCODE, es un sistema de detección de copia en documentos digitales diseñado para el idioma español. El objetivo del siguiente trabajo de memoria es diseñar y construir un Plan de Negocios como estrategia de levantamiento de Capitales para la etapa de comercialización del servicio DOCODE. Con la masificación del uso de Computadores e Internet, se ha vuelto común el copiar y pegar sin citar la fuente, en todo el mundo. En Chile, un estudio realizado el año 2010 concluyó que cerca del 55% de los estudiantes de educación media declaran haber copiado y pegado información desde la Web sin citar la fuente, mientras que un 42% de los estudiantes de educación superior declaran lo mismo. La hipótesis del presente trabajo es sostener que será necesario contar con una estrategia de levantamiento de capitales externos para poner en marcha con éxito la comercialización del servicio. Se estudió la situación actual de las alternativas de financiamiento para negocios en etapas de alto riesgo, sus actores principales, las entidades privadas y estatales que brindan subsidios, incubadoras de negocios, entre otros, para establecer una estrategia de levantamiento de capital. Se estableció que el modelo de negocio debía basarse en la venta de licencias anuales a instituciones educacionales de educación media y superior, donde el precio a cobrar debe estar entre $1.600 y 2.750 por alumno que pertenezca al establecimiento, entre los años 2012 y 2016. Otra forma de pago será el Prepago, que permitirá revisar por ejemplo, 100 trabajos por $4.000 Finalmente, este proyecto tiene un Valor Presente Neto de 77,9 millones, una Tasa Interna de Retorno de 27% y una rentabilidad en que se recupera 4,7 veces lo invertido en 5 años. Esto permite recomendar su ejecución ya que es un proyecto atractivo según estos indicadores.
APA, Harvard, Vancouver, ISO, and other styles
8

Pissani, Alvear Jorge Eduardo. "Plan de Globalización del Servicio de Análisis de Texto DOCODE hacia Hispanoamérica." Tesis, Universidad de Chile, 2012. http://repositorio.uchile.cl/handle/2250/102784.

Full text
Abstract:
Magíster en Gestión para la Globalización
El objetivo principal de la presente tesis es diseñar un plan de globalización para DOCODE, servicio basado en tecnologías de información desarrollado en la Universidad de Chile con la finalidad de prevenir el plagio académico, hacia un mercado escogido en Hispanoamérica. Dicho plan incluye la selección de este mercado objetivo, la identificación de atributos relevantes para los potenciales clientes y una recomendación del modo de entrada y modelo de suscripción para este mercado. Habiendo identificado el cluster de servicios generales como estratégico para el desarrollo de Chile, Fondef apoya iniciativas como la de DOCODE. Dados los altos costos de desarrollo de software y la facilidad que provee Internet para distribuir el servicio, cabe estudiar la posibilidad de internacionalizarlo. Luego de aplicar un análisis de atractividad para seleccionar un país dentro de Hispanoamérica, se realiza una encuesta dentro de dicho mercado, de la que se recoge información esencial para desarrollar un plan de negocios. Todo este esfuerzo tiene por finalidad entregar evidencias que respalden la hipótesis de investigación de esta tesis, que sostiene que es posible internacionalizar el servicio prestado por DOCODE hacia un país de Hispanoamérica por medio del diseño y ejecución de un plan estructurado de globalización. Puesto que el país seleccionado fue México, se utiliza este caso para demostrar la validez de la mencionada hipótesis. Los resultados que apoyan esta hipótesis se empiezan a ver desde el análisis de la encuesta online realizada a académicos de instituciones de educación superior mexicanas, quienes con una alta tasa de respuesta se mostraron interesados por un servicio de prevención del plagio como herramienta para incentivar la creatividad de sus alumnos. La encuesta permite identificar la evaluación del comportamiento del grupo como principal elemento diferenciador respecto de la competencia directa de DOCODE. Luego de explorar en el plan de negocios las alternativas existentes, se recomienda entrar en México por intermedio de vendedores locales especializados en el mercado mexicano, quienes reciben a cambio comisiones por venta. Se identifica el modelo de suscripción anual con pago adelantado mensual como el modelo de suscripción más adecuado para los ciclos presupuestarios de los clientes. El análisis financiero revisa tres posibles escenarios de venta y establece que el negocio es rentable sobre un promedio de venta anual de 3.000 usuarios nombrados, bajo ciertos supuestos razonables. En conclusión, el entorno mexicano es favorable para emprender el proyecto de globalización de DOCODE. El servicio tiene potencial para convertirse en un referente en su industria a nivel hispanoamericano comenzando por las instituciones educacionales. Se recomienda prestar especial atención al esfuerzo comercial, en particular a la publicidad y promoción, actividades claves del éxito del proyecto.
APA, Harvard, Vancouver, ISO, and other styles
9

Vásquez, Álvarez Carlos Andrés. "Plan de internacionalización del servicio online de análisis de texto DOCODE desde Chile hacia España." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112593.

Full text
Abstract:
Magíster en Gestión para la Globalización
El objetivo general de este proyecto es generar un plan de internacionalización que permita al servicio chileno de análisis de texto DOCODE, que identifica si un documento digital es original comparándolo con fuentes en la Web y en bases documentales propietarias [1], ser comercializado en España, donde satisfaga las necesidades del segmento atingente y se consideren los recursos que posee la organización. En Chile, existe un importante número de empresas tecnológicas emergentes que no cuentan con los recursos necesarios para poder investigar de manera sistemática las posibilidades que les brindaría a su negocio abrirse a mercados extranjeros. DOCODE se encontraría dentro de este grupo de empresas. Con el presente trabajo de investigación, se plantea probar que el servicio prestado por DOCODE es factible de internacionalizar a mercados de habla hispana, especialmente España. Considerando que el mercado español posee un grado de madurez más avanzado que el nuestro local respecto a los servicios a distancia, permitiendo una aproximación al servicio menos cauta, y más receptiva. Para lograr este propósito, se realizó un análisis de atractividad que consideró a la gran mayoría de los países de habla hispana y un levantamiento de los antecedentes del país seleccionado a través del estudio de su macroentorno. Posteriormente se realizó una encuesta a más de 300 individuos, entre académicos y representantes de instituciones académicas, la cual estaba enfocada a conocer las necesidades respecto del uso de una herramienta como DOCODE. De lo analizado se concluye que el servicio posee atributos valorados por los académicos, que la competencia no ha explorado, como los análisis de comportamiento grupal, los cuales le permitirían destacarse sobre los servicios de la competencia. Por otro lado, el amplio uso del LMS Moodle en la industria educacional española brinda a la empresa una oportunidad de desarrollo. Una asociación entre DOCODE y Moodle respaldaría la comercialización del servicio, a través de sus aportes en promoción y distribución. Y por último, el macroentorno español favorece la comercialización del servicio, principalmente por la favorable sensibilidad del grupo objetivo (instituciones) hacía los nuevos servicios globales, debido a los aportes a la flexibilidad económica que pudiesen tener estos en sus instituciones.
APA, Harvard, Vancouver, ISO, and other styles
10

Donelavičius, Mantas. "Plagiato patikros e. sistema mMoodle aplinkai." Master's thesis, Lithuanian Academic Libraries Network (LABT), 2013. http://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2013~D_20130729_140119-61483.

Full text
Abstract:
Baigiamajame magistro darbe nagrinėjamos plagiatų aptikimas, vertinami skirtingi algoritmai, užsienio šalių patirtis šioje srityje. Išnagrinėti pagrindiniai būdai, kuriais remiantis nustatomi plagiatai. Darbo metu sukurta plagiatų patikros sistema ir įskiepis skirtas Moodle mokymosi aplinkai. Sistemoje naudojamo algoritmo efektyvumas matuojamas atsižvelgiant į duomenų saugojimo, bei gavimo būdus iš duomenų bazės, taip pat ir jo patikimumas. Baigiamajame darbe nagrinėjama kitų plagiatų patikros programų tikrinamų darbų skaičiaus įtaka jų darbo efektyvumui, bei lyginama su sukurtu produktu.
Main goal of this work was to create antiplagiarism system for Moodle. Before system development every aspect of it was researched. Hardest thing to design was algorithm for plagiarism detection, because it must be quite fast and accurate. After that plagiarism detection system was developed in PHP and SQL languages there were performed different speed tests. Created algorithm's one work processing time almost doesn't depend on work count in database, so this system is limited only by the amount of RAM and HDD space server has.
APA, Harvard, Vancouver, ISO, and other styles
11

Ferrero, Jérémy. "Similarités textuelles sémantiques translingues : vers la détection automatique du plagiat par traduction." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM088/document.

Full text
Abstract:
La mise à disposition massive de documents via Internet (pages Web, entrepôts de données,documents numériques, numérisés ou retranscrits, etc.) rend de plus en plus aisée la récupération d’idées. Malheureusement, ce phénomène s’accompagne d’une augmentation des cas de plagiat.En effet, s’approprier du contenu, peu importe sa forme, sans le consentement de son auteur (ou de ses ayants droit) et sans citer ses sources, dans le but de le présenter comme sa propre œuvre ou création est considéré comme plagiat. De plus, ces dernières années, l’expansion d’Internet a également facilité l’accès à des documents du monde entier (écrits dans des langues étrangères)et à des outils de traduction automatique de plus en plus performants, accentuant ainsi la progression d’un nouveau type de plagiat : le plagiat translingue. Ce plagiat implique l’emprunt d’un texte tout en le traduisant (manuellement ou automatiquement) de sa langue originale vers la langue du document dans lequel le plagiaire veut l’inclure. De nos jours, la prévention du plagiat commence à porter ses fruits, grâce notamment à des logiciels anti-plagiat performants qui reposent sur des techniques de comparaison monolingue déjà bien éprouvées. Néanmoins, ces derniers ne traitent pas encore de manière efficace les cas translingues. Cette thèse est née du besoin de Compilatio, une société d’édition de l’un de ces logiciels anti-plagiat, de mesurer des similarités textuelles sémantiques translingues (sous-tâche de la détection du plagiat). Après avoir défini le plagiat et les différents concepts abordés au cours de cette thèse, nous établissons un état de l’art des différentes approches de détection du plagiat translingue. Nousprésentons également les différents corpus déjà existants pour la détection du plagiat translingue et exposons les limites qu’ils peuvent rencontrer lors d’une évaluation de méthodes de détection du plagiat translingue. Nous présentons ensuite le corpus que nous avons constitué et qui ne possède pas la plupart des limites rencontrées par les différents corpus déjà existants. Nous menons,à l’aide de ce nouveau corpus, une évaluation de plusieurs méthodes de l’état de l’art et découvrons que ces dernières se comportent différemment en fonction de certaines caractéristiques des textes sur lesquelles elles opèrent. Ensuite, nous présentons des nouvelles méthodes de mesure de similarités textuelles sémantiques translingues basées sur des représentations continues de mots(word embeddings). Nous proposons également une notion de pondération morphosyntaxique et fréquentielle de mots, qui peut aussi bien être utilisée au sein d’un vecteur qu’au sein d’un sac de mots, et nous montrons que son introduction dans ces nouvelles méthodes augmente leurs performances respectives. Nous testons ensuite différents systèmes de fusion et combinaison entre différentes méthodes et étudions les performances, sur notre corpus, de ces méthodes et fusions en les comparant à celles des méthodes de l’état de l’art. Nous obtenons ainsi de meilleurs résultats que l’état de l’art dans la totalité des sous-corpus étudiés. Nous terminons en présentant et discutant les résultats de ces méthodes lors de notre participation à la tâche de similarité textuelle sémantique (STS) translingue de la campagne d’évaluation SemEval 2017, où nous nous sommes classés 1er à la sous-tâche correspondant le plus au scénario industriel de Compilatio
The massive amount of documents through the Internet (e.g. web pages, data warehouses anddigital or transcribed texts) makes easier the recycling of ideas. Unfortunately, this phenomenonis accompanied by an increase of plagiarism cases. Indeed, claim ownership of content, withoutthe consent of its author and without crediting its source, and present it as new and original, isconsidered as plagiarism. In addition, the expansion of the Internet, which facilitates access todocuments throughout the world (written in foreign languages) as well as increasingly efficient(and freely available) machine translation tools, contribute to spread a new kind of plagiarism:cross-language plagiarism. Cross-language plagiarism means plagiarism by translation, i.e. a texthas been plagiarized while being translated (manually or automatically) from its original languageinto the language of the document in which the plagiarist wishes to include it. While prevention ofplagiarism is an active field of research and development, it covers mostly monolingual comparisontechniques. This thesis is a joint work between an academic laboratory (LIG) and Compilatio (asoftware publishing company of solutions for plagiarism detection), and proposes cross-lingualsemantic textual similarity measures, which is an important sub-task of cross-language plagiarismdetection.After defining the plagiarism and the different concepts discussed during this thesis, wepresent a state-of-the-art of the different cross-language plagiarism detection approaches. Wealso present the preexisting corpora for cross-language plagiarism detection and show their limits.Then we describe how we have gathered and built a new dataset, which does not contain mostof the limits encountered by the preexisting corpora. Using this new dataset, we conduct arigorous evaluation of several state-of-the-art methods and discover that they behave differentlyaccording to certain characteristics of the texts on which they operate. We next present newmethods for measuring cross-lingual semantic textual similarities based on word embeddings.We also propose a notion of morphosyntactic and frequency weighting of words, which can beused both within a vector and within a bag-of-words, and we show that its introduction inthe new methods increases their respective performance. Then we test different fusion systems(mostly based on linear regression). Our experiments show that we obtain better results thanthe state-of-the-art in all the sub-corpora studied. We conclude by presenting and discussingthe results of these methods obtained during our participation to the cross-lingual SemanticTextual Similarity (STS) task of SemEval-2017, where we ranked 1st on the sub-task that bestcorresponds to Compilatio’s use-case scenario
APA, Harvard, Vancouver, ISO, and other styles
12

Barrón, Cedeño Luis Alberto. "On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/16012.

Full text
Abstract:
Barrón Cedeño, LA. (2012). On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16012
Palancia
APA, Harvard, Vancouver, ISO, and other styles
13

Guerrero, Quichiz Gerardo Manuel. "Modelo de Fusión de Score Utilizando Teoría de la Información para Integración de Sistemas de Similitud de Documentos." Tesis, Universidad de Chile, 2011. http://repositorio.uchile.cl/handle/2250/102682.

Full text
Abstract:
El presente proyecto de tesis se enmarca dentro del proyecto FONDEF DO8I-1015 llamado DOcument COpy DEtector (DOCODE), cuyo objetivo es desarrollar un sistema de detección de copia escrita. Hoy ya existe una versión 1.0 de DOCODE que incluye búsqueda web a partir de un texto ingresado1 , sin embargo se está desarrollando la versión 2.0 en la cual se incluirán parseadores, sistemas de similitud de documento, y demás herramientas avanzadas; y es en esta nueva versión que se incluirá el Modelo de Fusión de Datos que aquí se describe. Antes de explicar el desarrollo de esta tesis recordemos la etapa de cambio que vivimos en la actualidad, la llamada revolución informática, que en pocas palabras es la masificación y facilidad de acceso a la información mediante equipos electrónicos. Esta etapa de cambio se ve fortalecida con el Internet, medio que permite a las personas consultar e intercambiar información con terceros con bastante facilidad. Esta comodidad de acceso a la información también trae consigo un inconveniente: el problema del plagio, un mal que en esta época de adelantos puede traer atrasos, porque un estudiante en formación en lugar de investigar se puede dedicar a copiar y pegar información que encuentra fácilmente en Internet. Este problema no es menor y repercute en muchos ámbitos, no sólo académico, porque además de ser un problema ético, a gran escala se puede convertir en un problema serio con índoles legales. Para evitar ello, los investigadores del tema han desarrollado diversos métodos y sistemas de detección de plagio. Los cuales se basan en metodologías o algoritmos numérico–matemáticos que ayudan a identificar el grado de similitud entre un par de documentos A y B, también denominado dupla de Documento Sospechoso vs. Documento Fuente. Estos desarrollos poseen un variado desempeño, y es dependiente de la base de prueba. Es decir, algunos métodos funcionan bien y dan un resultado confiable para cierta base de experimentación, pero otros no, y estos mismos métodos pueden entregar malos resultados para otra base, mientras que los otros dan buenos resultados. Eliminar la “incertidumbre” en los resultados es la motivación principal de esta tesis, por ello se propone desarrollar un modelo para detección de plagio que pueda incluir N métodos de detección individuales (Donde: N ∈ Z +) y que sea capaz de tomar sus mejores resultados para mostrarlos como un único resultado final. Con lo descrito, se plantea el objetivo de este proyecto: “Desarrollar un Modelo de Fusión de Datos eficiente que pueda integrar diversos resultados de Sistemas de detección de similitud entre documentos” Para conseguir dicho objetivo se Diseñó y Desarrolló un Modelo de Fusión de Datos para la detección de plagio entre documentos que posee tres partes importantes: (1) La modificación de la Ecuación del Valor de la Información propuesta por Yu Suzuki et. al. [67]. (2) Un Sistema de Combinación Geométrico y (3) Una formulación que incluye un Factor de credibilidad. Que es un indicador ingresado por el usuario (juicio experto) y que muestra el nivel de confianza que se le tiene a un Método de Detección de Plagio. Posteriormente, el Modelo propuesto se validó con una base de pruebas supervisada otorgada por la PAN20102 [55] y se le comparó con otros Modelos de Fusión de Datos Clásicos [49, 63]. En esta comparación el Modelo de Fusión de Datos Propuesto en la tesis alcanzó el mejor desempeño con un F-MEASURE promedio de 94.3 % y una desviación estándar de 8.2 %, logrando así ser el más eficiente entre los modelos. Además, con ayuda del grupo de Social Network Analysis (SNA) de la Universidad de Chile3 , se realizó un análisis para detectar grupos sociales de copia para un conjunto de tareas digitales presentadas por alumnos del ramo de Tecnologías de la Información4 donde se logró detectar relación de similitud entre tareas de algunos alumnos. Esto después se contrastó con el auxiliar del ramo y se verificó la existencia de copia para los documentos reconocidos por el sistema. En esta etapa se utilizaron grafos dirigidos, para la representación visual de los resultados. Finalmente, se concluyó que el sistema desarrollado es eficiente con un ACCURACY, PRECISION y RECALL de 99.8 %, 96.1 % y 78.1 % respectivamente. Consiguiendo, de ese modo, cumplir con el objetivo propuesto.
APA, Harvard, Vancouver, ISO, and other styles
14

Martins, Lilian Guimarães [UNESP]. "Investigação epidemiológica em plantio de alface (Lactuca sativa) na cidade de Botucatu - SP visando detectar a presença de ovos de Taenia sp." Universidade Estadual Paulista (UNESP), 2003. http://hdl.handle.net/11449/99386.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:30:11Z (GMT). No. of bitstreams: 0 Previous issue date: 2003Bitstream added on 2014-06-13T19:46:59Z : No. of bitstreams: 1 martins_lg_me_botfmvz.pdf: 1493079 bytes, checksum: 901178b02a03633f068b1a8413fee0a3 (MD5)
O presente trabalho teve por objetivos verificar as condições higiênico-sanitárias de alfaces (Lactuca sativa), enfocando a análise voltada à pesquisa de ovos de Taenia sp.. Foram colhidos em bairros periféricos da cidade de Botucatu (SP), região sudeste do Brasil, 50 amostras de pés de alface distribuídas em 5 propriedades distintas, totalizando 25 amostras de alface lisa e 25 amostras de alface crespa. A técnica aplicada foi a de Centrifugo-flutuação modificada, utilizando solução de Dicromato de Sódio (D= 1:35). Nas respectivas propriedades realizaram-se inquéritos epidemiológicos relativos a questões sobre o plantio, irrigação, fornecimento da produção, presença ou não de rede de esgoto, banheiro, hábitos alimentares, tratamento com anti-helmínticos e conhecimento da doença. Os resultados descritivos referentes às propriedades investigadas revelaram que, 60% são adubadas com sulfato de amônio associado a esterco bovino; 60% são irrigadas com água proveniente de nascente própria; 60% não possuem rede de esgoto 40% dos banheiros estão ligados à rede de esgoto, enquanto 20% não possuem sanitários; 100% dos entrevistados possuem hábito de comer verdura (crua ou cozida); 80% nunca receberam anti-helmínticos; 20% não conhece solitária; 80% nunca sofreu ataque epilético; 80% não come carne mal passada. Não se observou presença de ovos de Taenia sp., porém foram encontradas outras formas parasitárias como ácaros, larvas de nematódeos e ovos de nematódeos de vida livre.
The work at hand had as objectives to verify the hygienic and sanitary conditions of lettuce (Lactuca sativa) focusing on the analysis related to the research of Taenia sp.. eggs. Therefore, 50 samples of heads of lettuce were collected in the outskirts neighborhoods of Botucatu (SP), southeast region of Brazil, distributed in 5 distinct properties, totalizing 25 samples of lettuce with straight leaves and 25 samples of lettuce with curled leaves. The technique applied was the Centrifugation isopycnic modified using a solution of Sodium Dichromate (D=1:35). The properties were submitted to epidemic inquiries concerning questions related to the planting, irrigation, distribution, existence or not of sewerage system, toilets, eating habits, anthelmintics treatment and knowledge of the illness. The descriptive results related to the properties under research revealed that 60% are fertilized, with Ammonium Sulfate associated with animal manure; 60% are irrigated with water originating in springs on their own land; 60% do not have sewerage system; 40% of the toilets are connected to the sewerage system, whereas 20% do not have toilets; 100% of the interviewed people have the habit of eating vegetables (either raw or cooked); 80% have never taken anthelmintics; 20% do not know tapeworm; 80% never suffered from epileptic seizures; 80% do not eat raw meat. It was not observed the presence of Taenia sp.. eggs but other kinds of parasites were found, such as mites, nematoda germs and nematoda - free life eggs.
APA, Harvard, Vancouver, ISO, and other styles
15

Martins, Lilian Guimarães. "Investigação epidemiológica em plantio de alface (Lactuca sativa) na cidade de Botucatu - SP visando detectar a presença de ovos de Taenia sp. /." Botucatu, 2003. http://hdl.handle.net/11449/99386.

Full text
Abstract:
Orientador: Germano Francisco Biondi
Resumo: O presente trabalho teve por objetivos verificar as condições higiênico-sanitárias de alfaces (Lactuca sativa), enfocando a análise voltada à pesquisa de ovos de Taenia sp.. Foram colhidos em bairros periféricos da cidade de Botucatu (SP), região sudeste do Brasil, 50 amostras de pés de alface distribuídas em 5 propriedades distintas, totalizando 25 amostras de alface lisa e 25 amostras de alface crespa. A técnica aplicada foi a de "Centrifugo-flutuação" modificada, utilizando solução de Dicromato de Sódio (D= 1:35). Nas respectivas propriedades realizaram-se inquéritos epidemiológicos relativos a questões sobre o plantio, irrigação, fornecimento da produção, presença ou não de rede de esgoto, banheiro, hábitos alimentares, tratamento com anti-helmínticos e conhecimento da doença. Os resultados descritivos referentes às propriedades investigadas revelaram que, 60% são adubadas com sulfato de amônio associado a esterco bovino; 60% são irrigadas com água proveniente de nascente própria; 60% não possuem rede de esgoto 40% dos banheiros estão ligados à rede de esgoto, enquanto 20% não possuem sanitários; 100% dos entrevistados possuem hábito de comer verdura (crua ou cozida); 80% nunca receberam anti-helmínticos; 20% não conhece solitária; 80% nunca sofreu ataque epilético; 80% não come carne mal passada. Não se observou presença de ovos de Taenia sp., porém foram encontradas outras formas parasitárias como ácaros, larvas de nematódeos e ovos de nematódeos de vida livre
Abstract: The work at hand had as objectives to verify the hygienic and sanitary conditions of lettuce (Lactuca sativa) focusing on the analysis related to the research of Taenia sp.. eggs. Therefore, 50 samples of heads of lettuce were collected in the outskirts neighborhoods of Botucatu (SP), southeast region of Brazil, distributed in 5 distinct properties, totalizing 25 samples of lettuce with straight leaves and 25 samples of lettuce with curled leaves. The technique applied was the "Centrifugation isopycnic" modified using a solution of Sodium Dichromate (D=1:35). The properties were submitted to epidemic inquiries concerning questions related to the planting, irrigation, distribution, existence or not of sewerage system, toilets, eating habits, anthelmintics treatment and knowledge of the illness. The descriptive results related to the properties under research revealed that 60% are fertilized, with Ammonium Sulfate associated with animal manure; 60% are irrigated with water originating in springs on their own land; 60% do not have sewerage system; 40% of the toilets are connected to the sewerage system, whereas 20% do not have toilets; 100% of the interviewed people have the habit of eating vegetables (either raw or cooked); 80% have never taken anthelmintics; 20% do not know tapeworm; 80% never suffered from epileptic seizures; 80% do not eat raw meat. It was not observed the presence of Taenia sp.. eggs but other kinds of parasites were found, such as mites, nematoda germs and nematoda - free life eggs
Mestre
APA, Harvard, Vancouver, ISO, and other styles
16

Hedlund, Elin. "(Ur)kunden har alltid rätt : En studie om plagiat och användandet av plagiatkontrollsystem vid ett svenskt lärosäte." Thesis, Högskolan Väst, Avd för medier och design, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:hv:diva-14270.

Full text
Abstract:
The purpose of this study was to better understand how the universities in Sweden work to prevent plagiarism, how they use plagiarism detection tools and what knowledge the students have or wish to have about plagiarism. This was studied through interviews with teachers and administration staff from one smaller university in Sweden together with a questionnaire for students attending any university in Sweden. The study shows that the information about plagiarism can be clearer from teachers according to the students, to prevent plagiarism as far as possible. It also shows that the university is already working to improve the information so that the students in a better way can understand, but it is hard to know how to give the information and what information that the students need. The examined university are using the system Urkund as a plagiarism detection tool and the study shows that teachers in general are satisfied with the system and how they use it. However, some teachers see an opportunity to use the detection tool in their teaching practises but need more knowledge of the system to do so efficiently. The students reportedly know what plagiarism means according to the study, but they do not have a deeper knowledge about it which they want from their universities, especially how the school is handling plagiarism cases and how the plagiarism detection tool works. The study concludes with recommendations for the universities to improve their work against plagiarism.
Syftet med denna studie var att ta reda på hur ett lärosäte i dagsläget arbetar för att motverka plagiat, hur man använder plagiatkontrollsystem och vad studenterna har för kunskap eller vilken information de känner att de saknar gällande plagiering. Detta undersöktes genom att intervjua lärare och förvaltningsanställda på en mindre högskola i Sverige och även genom en enkätundersökning som gick ut till studenter vid högre utbildning i hela Sverige. Studien visade att många studenter upplever att informationen från lärare och lärosätet kan bli tydligare för att i största möjliga mån undvika plagieringsfall. Den visar på att lärosätet redan jobbar för att förbättra informationen för studenterna men att det är svårt att veta vad som fungerar optimalt. Studien visar också på hur systemet Urkund används och i vilken grad. De allra flesta lärarna tycker att det är ett bra och användbartsystem och det känner sig bekväma med användandet, många kan också se en möjlighet till att använda systemet på ett mer pedagogiskt vis men behöver mer kunskap i hur det skulle kunna fungera. Studenterna anser sig veta vad plagiat innebär men en stor del tycker sig sakna mer djupgående information från sitt lärosäte för att få en bättre förståelse i främst förfarande vid upptäckt av plagiat och hur plagiatkontrollsystem fungerar. Slutligen ges rekommendationer till lärosäten för att kunna utveckla sitt arbete med att motverka plagiering och förbättra kommunikationen mellan lärare och studenter för att minimera plagiatfall.
APA, Harvard, Vancouver, ISO, and other styles
17

Zarate, Rodriguez Rodrigo Enrique. "Diseño y Desarrollo de un Algoritmo de Detección de Patrones de Copia en Documentos Digitales." Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/102576.

Full text
Abstract:
Este trabajo de Tesis tiene por objetivo desarrollar un algoritmo aplicado a la detección de patrones de similitud entre documentos digitales, en el marco del proyecto Fondef D081-1015, DOCODE (DOcument COpy DEtector). Hay dos hechos fundamentales: no existe una cultura de educar al alumnado en base al respeto por la propiedad intelectual y el actual crecimiento del uso de las herramientas computacionales para la educación. Esto ha derivado en una práctica cada vez más que frecuente y con antecedentes a nivel internacional denominada “copy&paste”. Este problema ha conducido a desarrollar metodologías entre los alumnos para evitar ser detectados a la hora que deciden voluntaria o involuntariamente plagiar una o más fuentes, convirtiéndose para el profesor, en una lucha constante y muy lenta, o casi imposible de manejar dadas las cantidades de alumnos que poseen. Este trabajo se basa en la hipótesis de que es posible determinar la similitud entre documentos digitales mediante la detección de patrones de palabras aplicado al idioma español de mejor manera que traducir un detector de copia de una lengua extranjera, como se ha estado haciendo en los últimos años. El idioma español posee una estructura específica y una gran de sinonimia que hace que no sea eficiente tan solo aplicar los criterios lógicos usados en otros idiomas. Bajo este contexto, se crea un algoritmo basado en la búsqueda de secuencias comunes entre unidades de copia y se construye, mediante esto y una medida de distancia de edición, un prototipo capaz de tomar un grupo de documentos y entregar un indicador normalizado de la similitud existente entre dos documentos en particular. Este prototipo se somete a un experimento sobre una muestra de la base de documentos PAN-2010, en conjunto con otros detectores de similitud, el algoritmo LCS y la comparación por n-Gramas, bajo distintas condiciones: unidades de copia y tipos de copia, obteniendo distintos rendimientos en base a los indicadores: precisión, accuracy, recall y F-measure. El principal resultado encontrado es que considerando un mínimo de un 81% del largo de la unidad de copia deseada, es posible detectar copia independiente del caso estudiado. Se obtuvo una precisión y accuracy del 100% para la copia textual en todas unidades de copia. El modelo se encuentra bien calibrado para la copia no textual con un accuracy del 85.3%. El output se encuentra normalizado para entregar al usuario un resultado interpretable en términos porcentuales del nivel de similitud entre documentos. Se recomiendan unidades de medida como la oración o el párrafo, pues al tener un alfabeto finito y un algoritmo basado en la detección de secuencias comunes, el algoritmo sobrevalua la similitud en unidades de detección tan pequeñas, como la palabra. La principal línea de acción para el trabajo futuro es enfocarse en la detección de la copia no textual. Se aconseja la utilización de algoritmos de rankeo, específicamente n-Gramas, en conjunto con algoritmos de frecuencias de palabras, como TF-IDF, pues esto permite por un lado disminuir el universo de comparación y por otro, poder asociar determinados conceptos a temas característicos y adaptar la detección de similitud a un tema o área en particular. Finalmente, dadas las conversaciones con expertos en lingüística, en el largo plazo es ideal manejar indicadores asociados al individuo, de manera de detectar saltos extraordinarios en su desarrollo lingüístico, como lo son el léxico, la ortografía y la redacción, tarea que se basa en la hipótesis de que un profesor puede filtrar de manera menos estricta un comportamiento en base a sus experiencias anteriores con el individuo en particular.
APA, Harvard, Vancouver, ISO, and other styles
18

Merlo, Repetto Eduardo Ángel. "Identificación de Comunidades de Copia en Instituciones Educacionales Mediante el Análisis de Redes Sociales sobre Documentos Digitales." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103995.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Wittwer, Claudia Janina [Verfasser], Marco [Gutachter] Thines, and Sven [Gutachter] Klimpel. "eDNA-based detection of the crayfish plague, Aphanomyces astaci (Schikora 1906), in Germany / Claudia Janina Wittwer ; Gutachter: Marco Thines, Sven Klimpel." Frankfurt am Main : Universitätsbibliothek Johann Christian Senckenberg, 2019. http://d-nb.info/1201131219/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Wittwer, Claudia [Verfasser], Marco [Gutachter] Thines, and Sven [Gutachter] Klimpel. "eDNA-based detection of the crayfish plague, Aphanomyces astaci (Schikora 1906), in Germany / Claudia Janina Wittwer ; Gutachter: Marco Thines, Sven Klimpel." Frankfurt am Main : Universitätsbibliothek Johann Christian Senckenberg, 2019. http://d-nb.info/1201131219/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Kašpar, Jakub. "Vyhodnocení podobnosti programových kódů." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2016. http://www.nusl.cz/ntk/nusl-241092.

Full text
Abstract:
Main goal of this work is to get acquainted with the plagiarism problem and propose the methods that will lead to detection of plagiarism in program codes. In the first part of this paper different types of plagiarism and some methods of detection are introduced. In the next part the preprocessing and attributes detection is described. Than the new method of detection and adaptive weights usage is proposed. Last part summarizes the results of the detector testing on the student projects database
APA, Harvard, Vancouver, ISO, and other styles
22

Cosentino, Giovanni R. "Comparing Vegetation Cover in the Santee Experimental Forest, South Carolina (USA), Before and After Hurricane Hugo: 1989-2011." Digital Archive @ GSU, 2013. http://digitalarchive.gsu.edu/geosciences_theses/58.

Full text
Abstract:
Hurricane Hugo struck the coast of South Carolina on September 21, 1989 as a category 4 hurricane on the Saffir-Simpson Scale. Landsat Thematic mapper was utilized to determine the extent of damage experienced at the Santee Experimental Forest (SEF) (a part of Francis Marion National Forest) in South Carolina. Normalized Difference Vegetation Index (NDVI) and the change detection techniques were used to determine initial forest damage and to monitor the recovery over a 22-year period following Hurricane Hugo. According to the results from the NDVI analysis the SEF made a full recovery after a 10-year period. The remote sensing techniques used were effective in identifying the damage as well as the recovery.
APA, Harvard, Vancouver, ISO, and other styles
23

Vila, Rigat Marta. "Paraphrase Scope and Typology. A Data-Driven Approach from Computational Linguistics / Abast i tipologia de la paràfrasi. Una aproximació empíriica des de la lingüíística computacional." Doctoral thesis, Universitat de Barcelona, 2013. http://hdl.handle.net/10803/117850.

Full text
Abstract:
Paraphrasing is generally understood as approximate sameness of meaning between snippets of text with a different wording. Paraphrases are omnipresent in natural languages demonstrating all the aspects of its multifaceted nature. The pervasiveness of paraphrasing has made it a focus of several tasks in computational linguistics; its complexity has in turn resulted in paraphrase remaining a still unresolved challenge. Two basic issues, directly linked to the complex nature of paraphrasing, make its computational treatment particularly difficult, namely the absence of a precise and commonly accepted definition and the lack of reference corpora for paraphrasing. Based on the assumption that linguistic knowledge should underlie computational-linguistics research, this thesis aims to go a step forward in these two questions: paraphrase characterization and paraphrase-corpus building and annotation. The knowledge and resources created are then applied to natural language processing and, in concrete, to automatic plagiarism detection in order to empirically analyse their potential. This thesis is built as an article compendium comprising six core articles divided in three blocks: (i) paraphrase scope and typology, (ii) paraphrase-corpus creation and annotation, and (iii) paraphrasing in automatic plagiarism detection. In the first block, assuming that paraphrase boundaries are not fixed but depend on the field, task, and objectives, three borderline paraphrase cases are presented: paraphrases involving content loss, pragmatic knowledge, and certain grammatical features. The limits between paraphrasing and related phenomena such as coreference are also analysed. Paraphrase characterization takes on a new dimension if we look at it in extensional terms. We have built a general and linguistically-grounded paraphrase typology in line with this approach. The third issue addressed in this block is paraphrase representation, which we consider to be essential in order to formally apprehend paraphrasing. In the second block, the Wikipedia-based Relational Paraphrase Acquisition method (WRPA) is presented. It allows for the automatic extraction of paraphrases expressing a concrete relation from Wikipedia. Using this method, the WRPA corpus, covering different relations and two languages (English and Spanish), was built. A subset of the Spanish WRPA corpus, together with paraphrases in two English paraphrase corpora that are different in nature were annotated applying a new annotation scheme derived from our paraphrase typology. These annotations were validated applying the Inter-annotator Agreement for Paraphrase-Type Annotation measures (IAPTA), also developed in the framework of this thesis. In the third and final block, our typology is applied to the field of automatic plagiarism detection, demonstrating that more complex paraphrase phenomena and a high density of paraphrase mechanisms make plagiarism detection more difficult, and that lexical substitutions and text-snippet additions/deletions are the most widely used paraphrase mechanisms when plagiarizing. This provides insights for future research in automatic plagiarism detection and demonstrates, through a concrete example, the value of the knowledge and data provided in this thesis to computational-linguistics research.
S'entén per paràfrasi la igualtat aproximada de significat entre fragments de text que difereixen en la forma. La paràfrasi és omnipresent en les llengües naturals, on es troba expressada de múltiples maneres. D'una banda, la ubiqüitat de la paràfrasi l'ha convertit en el centre d’interès de moltes tasques específiques dins de la lingüística computacional; de l'altra, la seva complexitat ha fet de la paràfrasi un problema que encara no té una solució definitiva. Dues qüestions bàsiques, lligades a la naturalesa complexa de la paràfrasi, fan el seu tractament computacional particularment difícil: l'absència d'una definició precisa i comunament acceptada i la manca de corpus de paràfrasis de referència. Assumint que el coneixement lingüístic ha de ser a la base de la recerca en lingüística computacional, aquesta tesi pretén avançar en dues línies de treball: en la delimitació i comprensió del que s’entén per paràfrasi, i en la creació i anotació de corpus de paràfrasis que proporcionin dades sobre les quals fonamentar tant la recerca com futurs recursos i aplicacions. Amb l'objectiu d’avaluar empíricament el seu potencial, el coneixement i els recursos creats com a resultat d'aquest treball han estat aplicats a la detecció automàtica de plagi. Aquesta tesi consisteix en un compendi de publicacions i comprèn sis articles principals dividits en tres blocs: (i) abast i tipologia de la paràfrasi, (ii) creació i anotació de corpus de paràfrasis i (iii) la paràfrasi en la detecció automàtica de plagi. En el primer bloc, partint de la base que els límits de la paràfrasi no són fixos, sinó que depenen de l'àrea de treball, la tasca i els objectius, es presenten tres casos límit de la paràfrasi: la pèrdua de contingut, el coneixement pragmàtic i la variació en determinats trets gramaticals. La caracterització de la paràfrasi pren una nova dimensió si l'observem des d'una perspectiva extensional. En aquesta línia, s'ha construït una tipologia general de la paràfrasi lingüísticament fonamentada. La tercera qüestió tractada en aquest bloc és la representació de la paràfrasi, essencial a l'hora de tractar-la formalment. En el segon bloc, es presenta un mètode per a l’adquisició de paràfrasis relacionals a partir de la Wikipedia (Wikipedia-based Relational Paraphrase Acquistion, WRPA). Aquest mètode permet extreure automàticament de la Wikipedia paràfrasis que expressen una relació concreta. Utilitzant aquest mètode, s'ha creat el corpus WRPA, que cobreix diverses relacions i dues llengües (anglès i espanyol). Un subconjunt del corpus WRPA en espanyol i exemples extrets de dos corpus de paràfrasis en anglès s'han anotat amb els tipus de paràfrasis que es proposen en aquesta tesi. Aquesta anotació ha estat validada aplicant les mesures d’acord entre anotadors (Inter-annotator Agreement for Paraphrase-Type Annotation, IAPTA), també desenvolupades en el marc d'aquesta tesi. En el tercer i últim bloc, la tipologia proposada s'ha aplicat a l'àmbit de la detecció automàtica de plagi i s'ha demostrat que els tipus de paràfrasis més complexos i l'alta concentració de mecanismes de paràfrasi fan més difícil la detecció del plagi. També s'ha demostrat que les substitucions lèxiques i l'addició/eliminació de fragments de text són els mecanismes de paràfrasi més utilitzats en el plagi. Així, es demostra el potencial del coneixement parafràstic en la detecció automàtica de plagi i en la recerca en lingüística computacional en general.
APA, Harvard, Vancouver, ISO, and other styles
24

Beck, Paul. "Quantitative damage assessment of concrete structures using Acoustic Emission." Thesis, Cardiff University, 2004. http://orca.cf.ac.uk/54656/.

Full text
Abstract:
This thesis examines the role of Acoustic Emission (AE) as a non-destructive testing technique for concrete structures. The work focuses on the development of experimental techniques and data analysis methods for the detection, location and assessment of AE from the failure of plain and reinforced concrete specimens. Four key topics are investigated:
APA, Harvard, Vancouver, ISO, and other styles
25

Antivero, Bazalar Alan David, Milla David Luis Gomero, Espinoza Julyana Jackeline Montalvan, and Uribe César Omar Villar. "Proyecto profesional Monitoreo fitopatológico de cultivos de uva: Golden eagle drone services." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2017. http://hdl.handle.net/10757/622045.

Full text
Abstract:
El proyecto de negocio se enfoca en el sector Agro exportador, mediante nuestra solución ayudaremos a los agro exportadores de Uva de mesa, de la ciudad de Ica – Perú - en las tareas de monitoreo fitopatológico de sus cultivos. (Plagas y Enfermedades). Nuestro servicio incorpora la tecnología del drone una cámara multiespectral y un software especializado el cual es usado en otros países como en Brasil, Paraguay México y chile que están automatizando procesos y apoyándose con la tecnología de los drones para mejorar su productividad y eficacia en sus cultivos. El servicio a ofrecer permitirá identificar oportunamente los problemas fitopatológicos y esto permitirá a los agricultores erradicarlos oportunamente mediante aplicaciones focalizadas y así reducir sus costos de producción y mejorar su rentabilidad, por otro lado contribuirá en la reducción de riesgo de exceso de productos químicos que restringen sus clientes más importantes, ya sin necesidad de realizar las inspecciones por personal que tienden a tener un margen de error porque solo se monitorea una parte del cultivo y no cubre la totalidad de los campos de cultivo, como es el caso de nuestro servicio y a un menor costo. Hemos escogido el cultivo de la Uva por ser un producto muy rentable y porque tiene una elevada exigencia sobre los residuos químicos, Perú es el quinto exportador de uva de mesa en el mundo sus principales países de destino son Asia con la Uva Red Globe y Europa con las uvas Seedles que son las uvas sin semillas las cuales tienen un buen precio en el mercado, nuestros potenciales clientes además de tener plantaciones de uva cuentan con grandes plantaciones de paltos Cítricos y Hortalizas los cuales nos da una escalabilidad realizando el servicio a otros cultivos. El proyecto se desarrollara inicialmente en la ciudad de Ica, por tener cercanía a los clientes con proyección de ampliarlo en la ciudad de Piura que es un mercado en crecimiento de la uva de mesa debido a las grandes oportunidades que tienen con las ventanas mundiales de la uva. Que son el mes de Septiembre y octubre donde hay poca uva a nivel mundial y el precio es mayor, esto se proyecta realizar en el sexto año. Como efecto colateral, mediante nuestro servicio se reduce el uso de productos químicos, lo cual contribuye al cuidado del medio ambiente en general. Para el presente proyecto requerimos una inversión de S/. 150,000, de los cuales el 51% será cubierto por aportes propios de la empresa y el saldo estará cubierto por un aporte financiado por los socios estratégicos del proyecto. EL proyecto estima llega a su Break Even al segundo año de sus operaciones y al cerrar el segundo año se generaría una utilidad esperada de 15% sobre las ventas. Para el primer año vamos a consolidarnos con nuestros principales clientes demostrándole la eficacia del servicio y emitiremos reportes de la gestión realizada para que ellos sirvan de referencia para los demás clientes y poder aumentar el hectareaje del servicio. Además de esta manera lograremos fidelizar a nuestros clientes y así el proyecto sea rentable y sostenido.
Trabajo de investigación
APA, Harvard, Vancouver, ISO, and other styles
26

Marshall, Laura Ann. "Uncharted Territory: Receptions of Philosophy in Apollonius Rhodius’ Argonautica." The Ohio State University, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=osu150330016014072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Šalplachta, Pavel. "Aplikace pro odhalování plagiátů." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2009. http://www.nusl.cz/ntk/nusl-236723.

Full text
Abstract:
This thesis is dealing with programming languages C and C++, various methods writing their constructions and development of application which detects very similar programs written in these languages. The application is intended to control plagiarism in school projects in which students have to create a program in C or C++. The application can check short programs as well as large programs divided into several modules.
APA, Harvard, Vancouver, ISO, and other styles
28

Haywood, Raphaëlle D. "Hide and seek : radial-velocity searches for planets around active stars." Thesis, University of St Andrews, 2015. http://hdl.handle.net/10023/7798.

Full text
Abstract:
The detection of low-mass extra-solar planets through radial-velocity searches is currently limited by the intrinsic magnetic activity of the host stars. The correlated noise that arises from their natural radial-velocity variability can easily mimic or conceal the orbital signals of super-Earth and Earth-mass extra-solar planets. I developed an intuitive and robust data analysis framework in which the activity-induced variations are modelled with a Gaussian process that has the frequency structure of the photometric variations of the star, thus allowing me to determine precise and reliable planetary masses. I applied this technique to three recently discovered planetary systems: CoRoT-7, Kepler-78 and Kepler-10. I determined the masses of the transiting super-Earth CoRoT-7b and the small Neptune CoRoT-7c to be 4.73 ± 0.95 M⊕ and 13.56 ± 1.08 M⊕, respectively. The density of CoRoT-7b is 6.61 ± 1.72 g.cm⁻³, which is compatible with a rocky composition. I carried out Bayesian model selection to assess the nature of a previously identified signal at 9 days, and found that it is best interpreted as stellar activity. Despite the high levels of activity of its host star, I determined the mass of the Earth-sized planet Kepler-78b to be 1.76 ± 0.18 M⊕. With a density of 6.2(+1.8:-1.4) g.cm⁻³, it is also a rocky planet. I found the masses of Kepler-10b and Kepler-10c to be 3.31 ± 0.32 M⊕ and 16.25 ± 3.66 M⊕, respectively. Their densities, of 6.4(+1.1:-0.7) g.cm⁻³ and 8.1 ± 1.8 g.cm⁻³, imply that they are both of rocky composition – even the 2 Earth-radius planet Kepler-10c! In parallel, I deepened our understanding of the physical origin of stellar radial-velocity variability through the study of the Sun, which is the only star whose surface can be imaged at high resolution. I found that the full-disc magnetic flux is an excellent proxy for activity-induced radial-velocity variations; this result may become key to breaking the activity barrier in coming years. I also found that in the case of CoRoT-7, the suppression of convective blueshift leads to radial-velocity variations with an rms of 1.82 m.s⁻¹, while the modulation induced by the presence of dark spots on the rotating stellar disc has an rms of 0.46 m.s⁻¹. For the Sun, I found these contributions to be 2.22 m.s⁻¹ and 0.14 m.s⁻¹, respectively. These results suggest that for slowly rotating stars, the suppression of convective blueshift is the dominant contributor to the activity-modulated radial-velocity signal, rather than the rotational Doppler shift of the flux blocked by starspots.
APA, Harvard, Vancouver, ISO, and other styles
29

Solà, Cassi Mireia. "Approaches for the biological control of stored product pests." Doctoral thesis, Universitat Autònoma de Barcelona, 2018. http://hdl.handle.net/10803/461300.

Full text
Abstract:
Stored products include all postharvest agricultural foodstuffs that do not require refrigeration and that can be preserved for several months under proper conditions as cereal grain and other raw material or processed food. Regrettably, in the Mediterranean region, the presence of insect pests such as the internal feeders of grain: Rhyzopertha dominica (F.) (Coleoptera: Bostrichidae), Sitophilus spp. (S. granarius (L.), S. oryzae (L.) and S. zeamais (Motschulsky)) (Coleoptera: Curculionidae) and Sitotroga cerealella (Olivier) (Lepidoptera: Gelechiidae) as well as the moth usually present in warehouses and grain mills, Ephestia kuehniella (Zeller) (Lepidoptera: Pyralidae), induce important quantitative and qualitative damage before consumption. Among the integrated pest management strategies for the control of these concerning stored product pests, biological control with the introduction of parasitoids as natural enemies represents a good alternative to the use of pesticides. Unfortunately, for the correct implementation and success of this sustainable approach, higher management knowledge is required. For this reason, the aim of this thesis was to assess different biological control approaches for the control of the most important stored product pests. A major issue for the cereal industry is the early detection of insects during grain storage and processing, especially when immature stages of the pests are hidden inside the grain kernels, such as happens with the internal feeders. Then, the first two chapters of this thesis are dedicated to the development of two Polymerase Chain Reaction (PCR) methodologies for internal feeder’s diagnosis. First, in chapter 1, a realtime PCR (qPCR) protocol for the detection and quantification of R. dominica in rice as a model system to quantify internal feeders in grain with a simple methodology is presented. On the other side, in chapter 2, a multiplex PCR protocol for the simultaneous detection and identification of the five most prevalent internal feeder pest species in different grains and processed food is described and then, also tested with commercial samples. For the effective use of natural enemies it is vital to understand and consider the interactions among physical, chemical and biological factors that take place when the grain is stored. For this reason, the third chapter of the thesis is focused on assessing the effectiveness of the parasitoid Anisopteromalus calandrae (Howard) (Hymenoptera: Pteromalidae) released in three different densities (10♀♀, 20♀♀ or 40♀♀ parasitoids) to control high infestations of the weevils R. dominica and S. zeamais in two kilos of rice under two risk temperatures (23ºC and 28ºC). The last chapter of the thesis is devoted to the optimization of an economic and easy to use device called Bankerbox for the control of the moth E. kuehniella by rearing and progressively releasing the parasitoid Habrobracon hebetor (Hüber) (Hymenoptera: Braconidae). In this perfectionated Bankerbox version, to avoid the risk of contamination of the stored products, Galleria mellonella (Lepidoptera: Pyralidae) larvae was chosen as host to rear the parasitoid. Then, three different treatments were tested, one with E. kuehniella 4th instar larvae and two with G. mellonella: one containing 4th instar larvae and the other with mixed larval stages (2nd and 4th instar larvae). The research carried out in this thesis attends to increase the knowledge for the proper use of integrated pest management strategies by providing feasible alternatives to the use of pesticides in the stored product industry for the control stored product pests.
APA, Harvard, Vancouver, ISO, and other styles
30

Packer, Thomas L. "Scalable Detection and Extraction of Data in Lists in OCRed Text for Ontology Population Using Semi-Supervised and Unsupervised Active Wrapper Induction." BYU ScholarsArchive, 2014. https://scholarsarchive.byu.edu/etd/4258.

Full text
Abstract:
Lists of records in machine-printed documents contain much useful information. As one example, the thousands of family history books scanned, OCRed, and placed on-line by FamilySearch.org probably contain hundreds of millions of fact assertions about people, places, family relationships, and life events. Data like this cannot be fully utilized until a person or process locates the data in the document text, extracts it, and structures it with respect to an ontology or database schema. Yet, in the family history industry and other industries, data in lists goes largely unused because no known approach adequately addresses all of the costs, challenges, and requirements of a complete end-to-end solution to this task. The diverse information is costly to extract because many kinds of lists appear even within a single document, differing from each other in both structure and content. The lists' records and component data fields are usually not set apart explicitly from the rest of the text, especially in a corpus of OCRed historical documents. OCR errors and the lack of document structure (e.g. HMTL tags) make list content hard to recognize by a software tool developed without a substantial amount of highly specialized, hand-coded knowledge or machine learning supervision. Making an approach that is not only accurate but also sufficiently scalable in terms of time and space complexity to process a large corpus efficiently is especially challenging. In this dissertation, we introduce a novel family of scalable approaches to list discovery and ontology population. Its contributions include the following. We introduce the first general-purpose methods of which we are aware for both list detection and wrapper induction for lists in OCRed or other plain text. We formally outline a mapping between in-line labeled text and populated ontologies, effectively reducing the ontology population problem to a sequence labeling problem, opening the door to applying sequence labelers and other common text tools to the goal of populating a richly structured ontology from text. We provide a novel admissible heuristic for inducing regular expression wrappers using an A* search. We introduce two ways of modeling list-structured text with a hidden Markov model. We present two query strategies for active learning in a list-wrapper induction setting. Our primary contributions are two complete and scalable wrapper-induction-based solutions to the end-to-end challenge of finding lists, extracting data, and populating an ontology. The first has linear time and space complexity and extracts highly accurate information at a low cost in terms of user involvement. The second has time and space complexity that are linear in the size of the input text and quadratic in the length of an output record and achieves higher F1-measures for extracted information as a function of supervision cost. We measure the performance of each of these approaches and show that they perform better than strong baselines, including variations of our own approaches and a conditional random field-based approach.
APA, Harvard, Vancouver, ISO, and other styles
31

Aguilar, Lara Pedro Alexis, and Gonzales Jhon Jobany Tueros. "Detección de defectos en telas poliéster utilizando técnicas de procesamiento de imágenes." Bachelor's thesis, Universidad Ricardo Palma, 2015. http://cybertesis.urp.edu.pe/handle/urp/1290.

Full text
Abstract:
Este proyecto tiene como objetivo la implementación de algoritmos para la detección de defectos en las telas poliéster. Como sabemos, desde sus inicios la industria ha utilizado avances tecnológicos no sólo para optimizar los procesos de fabricación sino también para mejorar la calidad de los productos. Ahora, si bien, no es posible evitar las fallas que alteran la calidad de las telas poliéster, sí es posible su detección mediante una inspección visual dentro del proceso de fabricación. En el presente estudio se realizó algoritmos de procesamiento de imágenes mediante el uso de librerías del software LabView para la detección de defectos en las telas poliéster, basándonos en muestras de telas con manchas comunes (MC), manchas de aceite (MA) y puntadas erróneas (PE), las cuales nos permitieron realizar varias pruebas experimentales, utilizando un módulo de pruebas a pequeña escala el cual fue fabricado según el tamaño de las muestras de tela, con la utilización de la técnica de iluminación lateral doble, y basándonos en el análisis del histograma de la imagen original de las muestras de telas, se lograron obtener parámetros numéricos que permitieron la detección de manchas comunes, manchas de aceite y puntadas erróneas, basado en el histograma de cada imagen, el cual muestra la cantidad de píxeles (tamaño de imagen) y la intensidad que se encuentra comprendido en un rango de 0-255 (siendo 0 el valor mínimo y 255 el valor máximo), se logró parametrizar numéricamente cada rango de valores de detección para el caso de MC un rango de valores de intensidad de cada pixel, obteniendo como resultado un intervalo de detección para MC de 0-195 y para el caso de las MA obteniendo como resultado un intervalo de detección de 167-194, que ayudaron en la realización del algoritmo para cada tipo de defecto, que validaron lo planteado en un inicio en la presente investigación. This project takes the implementation of algorithms to detect faults in fabrics polyester. Now, though, it is not possible to avoid the faults that alter the quality of fabrics polyester, the detection is possible by means of a visual inspection of the product inside the manufacturing process. This study carried out algorithms of image processing through the use of libraries from LabView software for detection of defects in fabrics polyester, based on samples of fabrics with Common Stains (MC), Oil Stains (MA) and Erroneous Stitches (PE), which allowed us to carry out several experimental tests, using a module of small scale tests which was manufactured according to the size of the fabric samples , using the technique of double side lighting, and based on histogram analysis, we have managed to obtain parameters that allowed the detection of Common Stains, Oil Stains and Erroneous Stitches. In the case of common stains, was parameterized numerically every range of detection values for the case of MC a range of values of each pixel intensity, resulting in a detection interval for 0-195 MC and the case of the MA resulting in a 167-194 detection interval.
APA, Harvard, Vancouver, ISO, and other styles
32

Ferreirinha, André Miguel Martins. "Fully automatic roadside video camera calibration and traffic analysis." Master's thesis, 2016. http://hdl.handle.net/10316/81568.

Full text
Abstract:
Dissertação de Mestrado Integrado em Engenharia Electrotécnica e de Computadores apresentada à Faculdade de Ciências e Tecnologia
Nos últimos anos vários trabalhos foram realizados pela comunidade científica sobre sistemas de monitorização de tráfego.Sistemas capazes de detectar acidentes em tempo real, carros em contra mão ou qualquer outro tipo de infracções são bastante procurados, com o objectivo de melhorar a segurança rodoviária dos condutores. O desafio actual incide sobre a diminuição do número de acidentes nas estradas ou, em caso de acidente, providenciar assistência no local o mais rápido possível. Assim, um sistema inteligente de monitorização de tráfego capaz de detectar estas incidências em tempo real pode emitir avisos para as autoridades competentes de forma a providenciar, por exemplo, uma mais rápida assistência médica em caso de necessidade. Alguns dos trabalhos já desenvolvidos na área do tráfego rodoviário, recorrendo a sistemas de visão, não requerem qualquer calibração de câmaras. Apesar disso estes requerem que o utilizador forneça manualmente dados específicos e, de forma geral, não podem ser acrescentadas mais funcionalidades ao sistema desenvolvido para além da funcionalidade inicial. No entanto, para desenvolver um sistema mais completo e versátil, é necessário efectuar previamente a calibração das câmaras rodoviárias. Alguns trabalhos de calibração destas câmaras já existentes requerem também dados específicos introduzidos pelo utilizador em função do posicionamento da câmara. Geralmente os dados introduzidos são marcas das faixas, largura entre as mesmas ou outros pontos específicos marcados na estrada, que diferem novamente da localização da câmara e do ambiente de tráfego existente. Posteriormente foram também desenvolvidos alguns sistemas capazes de calibrar automaticamente câmaras rodoviárias em cenários específicos, a partir de passadeiras e peões, por exemplo.O trabalho desenvolvido enquadra-se num projecto da Brisa para desenvolver a base de um sistema completo de monitorização rodoviária. A base consiste no desenvolvimento de um algoritmo de calibração automático de câmeras capaz de calibrar a mesma sem qualquer conhecimento da cena que está a visionar. A calibração baseia-se na detecção de pontos de fuga da estrada. Para efectuar esta detecção são recolhidas algumas linhas específicas com o objectivo de saber a localização dos pontos de fuga tanto no plano da imagem como no plano de coordenadas do mundo. Concluiu-se que, em praticamente todos os vídeos testados, é possível saber a localização exacta dos pontos de fuga nos dois sistemas de coordenadas em menos do que 5 minutos de vídeo. Alguns dos trabalhos desenvolvidos anteriormente requeriam um processamento de cerca de 2 horas de vídeo para conseguir uma calibração semelhante.Esta implementação permite que sejam desenvolvidas múltiplas tarefas de análise de tráfego em tempo real num sistema inteligente futuro. Algumas dessas possíveis tarefas foram realizadas de forma a corroborar o algoritmo de calibração implementado. Os veículos foram segmentados a partir do plano de fundo com um algoritmo de segmentação do primeiro-plano e foi calculada informação volumétrica individual para cada veículo, com base na caixa que o envolve, com medidas acima da escala. Foi também desenvolvido um método de detecção de faixas baseado na localização de cada uma das caixas envolventes a cada veículo e foram medidos os tempos computacionais de forma a confirmar que as tarefas desenvolvidas conseguem ser realizadas em tempo real.
Traffic surveillance system development have attracted many interest by the scientific community over the past years. Motivated by improving drivers security, systems capable real-time accident detection, wrong way or others infractions detection are highly desirable. The challenge today is to reduce the number of accidents on the roads or, in case of accident, performing the most quickly possible assistance on the field. Therefore, an Intelligent Transportation System capable of real-time trigger of those events can send automatic notifications to the competent authorities in order to provide quick medical assistance if needed, for example. Some developed works in the area of traffic surveillance tasks require no camera calibration, however some user inputs are necessary and, in general, no more tasks can be added to system. For a complete designed system, calibration of the traffic surveillance cameras is needed. Some works require some user inputs to perform such calibration. They can be in the form of lane marks, lane width or specific feature points identification on the road, differing from camera location and traffic scenario. Others require the camera to be located in a specific scenario in order to calibrate the camera automatically from pedestrians or even zebra crossings.The purposed work falls within a Brisa project to design a traffic surveillance system basis consisting on the calibration of the road scene without knowing any prior information about the road itself. The calibration is based on road vanishing point detection. For its detection specific lines are collected in order to retrieve their location both on the image plane and in the world coordinate system. It was concluded that, in almost every tested video stream, both vanishing points can be retrieved in less than 5 minutes of video time. Some previously developed works actually required 2 hours of processed video time to accomplish such calibration. Such an implementation leads to the ability of performing multiple posterior traffic surveillance tasks in real time on a future complete designed intelligent system. Some traffic analysis tasks were performed to corroboratethe implemented calibration algorithm. Vehicles were segmented with a foreground segmentation algorithm and individual bounding box volumetric information was retrieved, up to scale. A lane detection method based on each car bounding box location information was also implemented. Processing speeds were evaluated to confirm the real-time performance of the developed tasks.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography